previous next Title Contents Index

1. IBM ODER PC ?



Projektionen auf die Rückwirkungen des phänomenalen Erfolgs des
IBM-PC

Artikel in der Microcomputerwelt, April, Mai, Juni 1984, Erschienen als:
"Folgen eines Erfolgs"


AG-Text-Code: IBM-PC.DOC


Der IBM-PC hat mit seinem Erfolg alle überrascht, und wohl auch die Erwartungen von IBM selber übertroffen. Man kann viel darüber lesen, welchen Einfluß der PC auf den Micro-Markt hat, und es läßt sich nur spekulieren, welche Rückwirkungen er auf IBM haben kann. Dies soll hier gemacht werden.

1.1. Das Bild: IBM und Groß-EDV

Eine Rückwirkung des PC auf IBM heißt: Rückwirkung der Micro-Computer auf die EDV. Der Begriff IBM ist seit Beginn der Datenverarbeitung das Leitwort der Industrie. Vor dem Erfolg der Microcomputer bestand EDV aus zwei Bereichen, der kommerziellen Groß-Datenverarbeitung, die von den Mainframes der IBM geprägt war, und der technischen Datenverarbeitung, die gleichzusetzen war mit Minis und ihren Marktführern DEC und Data General. Beide Märkte unterschieden sich strukturell grundlegend. Mit dem Dazukommen der Micros kommen auf die Anwendungsbereiche dieser Geräte neue Strukturverschiebungen zu. Um den Einfluß der Micros auf die EDV zu untersuchen, soll hier erst einmal eine Betrachtung der vorhandenen Organisationsformen, Unternehmensstrukturen, und Wirtschaftsmethodiken gemacht werden. Mainframes sind untrennbar mit der Existenz der großen Konzerne, und Staats-Organisationen verbunden. Sie sind untrennbar von zentralisierter Steuerung und hierarchischem Management. Mainframes machen Großkonzerne heutigen Ausmaßes erst überlebensfähig.

1.2. Das Erfolgsgeheimnis von IBM

IBM ist in allen Fasern ihrer Struktur darauf ausgerichtet, diesen Markt genau so zu bedienen, wie er es in allen seinen Eigenheiten erfordert, und das besser zu machen, als alle ihre Konkurrenten. Es ist nicht die technologische Überlegenheit, die IBMs Vormachtstellung begründet. IBM überließ ihren Konkurrenten das Ausprobieren von technologischen Neuheiten, und führte sie selber ein, wenn die Konkurrenz die Eingewöhnungsprobleme im Markt gelöst hatte. In der Prioritäten-Rangliste der IBM-Strategie ist Technologie die letzte. Vor Technologie liegen die Qualitäten Zuverlässigkeit, der Produkte, wie des Kundendienstes und, an erster Stelle - Marketing. Während die Technologie der IBM Gegenstand vieler Diskussionen ist, etwa im Bereich der PCM's, der ungebetenen Zulieferer zu den Anlagen von IBM, oder der Gesetzgebung, oder in dem Image, das IBM von der Qualität seiner Produkte aufgebaut hat, so ist die Methodologie des Selling wohl das am besten gehütete Geheimnis von IBM. Und auch hier zeigt es sich, daß Technologie sich wegen des greifbaren Objekts trotz aller aufgerichteten Hindernisse als "an"-greifbar erweist, also nachgebaut werden kann, die Strukturen, die in der Schulung und Prägung der Mitarbeiter liegen, aber nicht nur schwer nachgeahmt werden können, sondern sich sozusagen als Langzeitwirkung auch dann noch auswirken, wenn dieser Mitarbeiter die Firma schon lange verlassen hat, und woanders, bei einem Anwender oder sogar der Konkurrenz arbeitet, aber oft immer noch zum Vorteil seiner alten Mutterfirma.
Das Image von IBM und Erscheinungsbild des IBMers sind unnachahmlich. Dies ist es, was der IBM in dem vorwiegend konservativen Markt der Konzern-Chefetagen ihren Erfolg eingebracht hat. Für die Häupter der Banken und Versicherungen zählt technische Brillianz wenig. Wenig zählt auch leichte Bedienbarkeit, oder Extras, die "bells and whistles" in Software und Hardware. Was zählt, sind Zuverlässigkeit, und die Kompatibilität mit dem Hergebrachten. Die absolute Zuverlässigkeit, für einen im Umgang mit allen Eventualitäten des Zufalls geschärften Blick eines Versicherungs-Managers, die IBM so zuverlässig garantiert. Dies ist nicht nur auf den materiell vorhandenen technologischen Apparat der IBM zurückzuführen, sondern auch auf die Schulung ihres Verkaufspersonals, sich genau auf die äußerst feinen und subtilen Kommunikations- und Selektionsmethoden der Manager-Elite einzuspielen, so fein, daß der VB am Schluß des Spiel mehr bestimmt, als die ihm gegenübersitzenden Gesprächspartner. Das Gruppen-Psychogramm der Management-Elite von Großfirmen wird von IBM offenbar am besten verstanden, wobei heute zur Hilfe kommt, daß die Gesprächspartner der IBM-VB's oder zumindest deren nächste Berater in der DV-Leitung oft vor 10 oder 15 Jahren selber durch die Schulung von IBM gegangen sind.

IBM ging mit den Großfirmen der westlichen Welt eine Symbiose ein, und sie erfüllt in allen diesen Firmen dieselbe Funktion: Die Bereitstellung der technischen Voraussetzungen für das "Nervensystem" dieser Organisationen, wenn man diese Analogie hier einmal gebrauchen darf. Die Arten und Weisen, wie EDV überhaupt definiert wird, mit all ihren Konsequenzen, die von der Systemanalyse bis zur Programmiermethodik reichen, sind von diesem Verbund geprägt. Es ist nicht richtig zu sagen, IBM prägt dieses Bild, sie verkörpert es nur. Es ist eine Interaktion der kollektiven Benutzergemeinde und IBM, in der IBM aufgrund ihrer Zentralstellung natürlich größeres Gewicht hat, als jeder Einzelne ihrer Geschäftspartner. Die Maximen der DV-Methodik aber werden von den Kunden geprägt. So überlebensnotwendig heute die EDV für die Konzerne ist, so gefahrvoll ist eine Technologie, deren Auswirkungs-Perspektiven und Kostenfaktor sich mit jedem Tag ändern, an dem ein neues Rechnermodell, oder ein neues Peripheriegerät vorgestellt wird. Nicht nur in den vielbeschworenen Gefahren für die Gesellschaft, sondern zuerst und vor allem für die betroffenen Konzerne, die einen Vitalteil ihrer Investitionen in diesen Komplex geleitet haben, und deren Zukunft von einer technologischen Neuerung in Gedeih und Verderb beeinflußt werden kann. Manche Benutzer mögen die relative Überalterung der Software-Konzepte von IBM kritisieren. In der Tat aber ist dies die Grundvoraussetzung, damit diese Systeme von den DV-Leitern und ihren Stäben akzeptiert wurden. Kompatibilität zum Bestehenden ist die oberste Maxime, der sich alle Überlegungen von Effizienz, Leistungsfähigkeit und Bedienungsfreundlichkeit unterzuordnen haben. IBM verstand es am besten, das potentiell verunsichernde Element einer revolutionären Technologie so in die Geschäftswelt einzubringen, daß die EDV der Großkonzerne lückenlos die schon vorhandenen Arbeits-Strukturen, Kommunikationskanäle, und Kommando-Hierarchien bediente, ohne sie auch nur im geringsten durch technologische Herausforderungen zu beeinträchtigen.

1.3. Die Pufferfunktion von IBM

Dies ist die Funktion von IBM als gesellschaftlicher Institution. Sie bietet einen lebensnotwendigen Puffer für die Großunternehmen, in dem potentiell revolutionäre Technologien, wie heute die PC's, sozusagen dosiert an die Anwenderwelt weitergegeben werden. Die Garantie, die Anwender vor den Schlägen eines Marktes schützen, in dem eine Investition in ein Computerystem, die man gestern gemacht hat, heute nur noch die Hälfte wert ist, weil über Nacht der Preis des Systems um die Hälfte gefallen ist, ein Markt, in dem gestern noch das Betriebssystem CP/M der allgemein herrschende Standard war, heute aber MS-DOS, und die Investitionen, die eine Firma mit Geräten und Software in dem alten Betriebssystem gemacht hatte, nun vom Fortschritt abgeschnitten sind, weil alle neuen Programme unter MS-DOS herauskommen, und vielleicht, vielleicht aber auch nicht, später unter CP/M zu haben sind. Support für Geräte und Software schwindet, weil sich alle Anbieter dem neuen Betriebssystem zuwenden. (Es stört nicht an dieser Überlegung, daß besagter Umsturz der Betriebssysteme von IBM selber eingeleitet wurde) IBM bietet die Garantie dafür, daß eine einmal getätigte Investition in einem System sich über eine normale Lebensdauer amortisieren wird.

1.4. Der Preis der Konstanz

Diese Konstanz kostet ihren Preis. Es sei hier nicht auf den offensichtlichen Preis verwiesen, der sich in Mark und Pfennig für die IBM-Beraterhonorare und Systempreise ausdrücken läßt, sondern auf die Kosten, die in keiner (computerisierten) Buchhaltung berücksichtigt werden können. Der Preis für die Konstanz. Es wurde schon oben angedeutet, mit dem Punkt Überalterung der System-Konzepte in der Groß-EDV. Es wirken hier viele Systemfaktoren zusammen. Die erste Forderung der Anwender ist die Kompatibilität mit dem Bestehenden. Der wesentliche Gradmesser dafür ist, daß alle Software, die sich seit zum Teil sehr geraumer Zeit in den Betrieben angesammelt hat, auf den neuen Geräten laufen muß, und umgekehrt die neuen Geräte von den Fachkräften, die schon seit Jahren in diesem Geschäft sind, ohne große Umschulung bedienbar sein müssen. Diese Situation hat zu einigen Besonderheiten des EDV-Marktes geführt. Es ist kein Geheimnis, daß EDV-Manpower zu den teuersten Diensten dieser Wirtschaft gehört. Es ist sehr teuer, Nachwuchskräfte auszubilden, und so wird dies in den Anwenderbetrieben nur nach Notwendigkeit getan. IBM hält im Bereich der Mitarbeiter-Fortbildung die einsame Spitze und prägt die Ausbildung entsprechend, einerseits durch die kontinuierliche Abwerbung der von IBM trainierten Fachkräfte in die Anwenderkreise, andererseits natürlich durch die von IBM veranstalteten Schulungen, die auch hier den größten Marktanteil besitzen. Schulungen von Fremdanbietern verwenden zudem gerne IBM-Kursusmaterialien, identisch bis leicht abgewandelt. Dies prägt natürlich entscheidend das Bild Fachkräfte von dem, was EDV ist, und wie sie zu bewerkstelligen ist, und gibt ihnen natürlich auch eine Idee davon, wer diese Aufgaben am Besten löst.

Wegen der hohen Kosten für die Ausbildung gibt es gemessen an den zu erledigenden Aufgaben viel zu wenig Kräfte, und das macht ihren möglichst effektiven Einsatz zum Gebot. Sie lassen sich am effektivsten einsetzen, wenn man ihnen möglichst keine Umschulungen oder Umgewöhnungen auf andere Systeme abverlangt, für die sie bis zu einem halben Jahr brauchen, um in ihnen effektiv arbeiten zu können. Aus diesen, und aus den Softwaregründen, sehen die Betriebs- und Programmier-systeme heute noch genauso aus wie vor 20 Jahren. TSO und MVS orientieren sich an den Gegebenheiten von Batch-orientierter Abwicklung, und übertragen diese Strukturen in eine völlig anders geartete Situation. Durch den Zwang zur Kompatibilität haben diese Systeme in Bezug auf Maschinen-effizienz einen Wirkungsgrad von 20 bis 50 %, wenn man als Maßstab eine auf die neue Technologie optimierte Software nehmen würde. Dies muß alles bezahlt werden, in Form von Programmier-Kosten und immer größer werdenden MIPS-Leistungen der jeweils neuen Maschinen-Generation, die alle vorhergehenden Modelle emulieren muß. Das heute allgemein gebräuchliche Betriebssystem MVS hat eine 20-Jährige Geschichte hinter sich, in der es aus den Anfängen des OS durch Anlagerung von immer weiteren "features" und Leistungen von release zu release wuchs und wuchs, immer mit der Notwendigkeit der Kompatibilität zu den Vorgängersystemen. Ein solches Wachstum nennt man im englischen "growth by accretion", im Gegensatz zu "growth by design". Ihr Hauptfaktor ist "historisch", während bei einem modernen Betriebssystem der Faktor "orthogonal" bestimmend ist.

Der Faktor "historisch" bedeutet, daß man die Funktionen des Systems am besten versteht, wenn man die Entwicklung des Systems von den alten Zeiten des OS her verfolgt, und sieht, wie die alten Konventionen die Eigenschaften von neuen Komponenten bestimmten.
"Orthogonal" im Gegensatz dazu heißt, daß es eine klare logische Klassifizierung horizontaler und vertikaler Komponenten des Systems gibt. Horizontal heißt hierbei die Abstufung von maschinennahen Komponenten über Betriebssystem und Anwendungsprogrammierung bis hin zur Benutzerschnittstelle.
Vertikale Komponenten sind Funktionen. Etwa die Funktion "Dateizugriff". So ist etwa eine Anfrage eines Benutzers an ein Anwendungsprogramm mit einem Dateizugriff verbunden, den das Programm an das Betriebssystem weitergibt. Das Betriebssytem aktiviert seinerseits die physikalischen Mechanismen, die auf den Massenspeicher zugreifen können. So ist die Funktion "Dateizugriff" auf allen Ebenen des Computersystems repräsentiert, und eine Vertikale Komponente. In einem orthogonal geplanten System haben die verschiedenen Funktionen des Systems (die vertikale Komponente) in den jeweiligen horizontalen Ebenen entweder gleiche oder entsprechende Ausführungsbedingungen und Kommandostrukturen.
Durch Akkretion gewachsene Systeme zeichnen sich dadurch aus, daß die Bezeichnungen ihrer Komponenten und ihre Bedienungskonventionen sich keiner Normierung in Bezug auf horizontale oder vertikale Klassifikation unterwerfen lassen, so daß es je nach Funktion oder Sub-system eine jeweils verschiedene hierarchische Unterteilung und verschiedene Bedienungs-Konventionen gibt.

1.5. Die Umkehrung der Ökonomiefaktoren in der EDV

Die Gründe für diese Verwirrungen liegen natürlich auch in der historischen Entwicklung. Das Verhältnis zwischen Hardware- und Softwarekosten hat sich in den letzten 30 Jahren umgekehrt. Waren früher die Hardwarepreise astronomisch hoch, ist es heute die Software. Es war damals klar, daß man mit den ungeheuer kostbaren technischen Ressourcen so sparsam wie möglich umgehen mußte, und jede Software nur mit einem Minimum an Bedienerkomfort die maximal effiziente Ausnutzung der Hardware bedingte. Als die Hardwarekosten sanken, hatte sich aber schon die erwähnte Struktur aus Anwendern und Anbieter gebildet, die mit der vorherrschenden Ökonomie der Programmierung immer noch die Maxime der maximalen Kompatibilität befriedigen mußte, und so kam, was heute als die "Softwarekrise" bezeichnet wird:

1.6. Die sogenannte Softwarekrise

In jedem System, das durch Hinzufügung von Komponenten ohne logische Strukturierung wächst (akkretion), vermehrt sich die Komplexität exponentiell, wenn die Zahl der Komponenten linear zunimmt. Es ist nur einer so riesigen Organisation wie IBM mit ihrem Hunderte-Milliarden-Haushalt möglich, eine solche Komplexität zu bewältigen. Man kann wohl den Argumenten der IBM glauben, daß die nicht wirklich vorhersehbare Entwicklung des Bedarfs und der Technik keine Strukturierung ihrer Systeme erlaubt hat, aber man muß doch bemerken, daß alle Software-Entwicklungen nicht einmal Rücksicht auf gemeinsame Bedienungskonventionen nehmen, als hätten sich nicht verschiedene Gruppen innerhalb von IBM, sondern völlig verschiedene Firmen, ohne Kenntnis voneinander, an die Entwicklung der Systemkomponenten der IBM-Betriebssysteme gemacht. Es ist folgerichtig, daß als Endprodukt die in den Zwängen ihrer selbst geschaffenen DV-Komplexität gefangenen Unternehmen der ideale, wie man im englischen sagt: "captive market" für IBM sind, ohne irgendeine Möglichkeit, diese exponentielle Vermehrung der Komplexität jemals aufzuhalten, wollen sie nicht ihre eigene Existenz aufs Spiel setzen. Im Zuge einer rationalisierenden Wirtschaft sind aber solche Kosten zu vertreten, wenn man dadurch andere Kosten einsparen kann. Dies sind die Arbeitskräfte, die wesentlich weniger verdienen, als DV-Spezialisten, von denen man früher viele brauchte, heute aber weniger. Es handelt sich hierbei also um eine Kosten-Umstrukturierung, in der die Gesellschaft, die das Training der Arbeitskräfte für ihre nun freiwerdenden Stellen bezahlt hat, nun die Folgekosten der Arbeitslosenunterstützung und Umschulung tragen muß.
Daß IBM im Geschäft der Groß-EDV auf anderer Ebene als der technologischen arbeitet, läßt sich exemplarisch am Gegenbeispiel zeigen. IBM hatte nie einen starken Stand im Mini-Computer-Geschäft. Nicht, daß IBM nicht in der Lage gewesen wäre, konkurrenzfähige Geräte zu bauen. Das Modell I war keine technologische Anstrengung von Seiten IBMs, den Minicomputermarkt zu erobern. Die gesamte Struktur des Apparates von IBM ist nicht darauf eingerichtet, diese Geräte zu vermarkten. Die Beschaffungssituation ist anders im Minicomputergeschäft. Kleine Firmen und Laboratorien haben eine völlig andere Struktur als Großkonzerne. Der, der über den Ankauf von EDV entscheidet, ist meist mehr technisch orientiert, und wird sich deshalb in seinem Gespräch mit dem Verkäufer auch mehr auf leistungsbezogene, bedienungsorientierte, und technische Fragen konzentrieren, und sein Fachwissen in Bezug auf die exakten Qualitäten der Maschine ist mit einiger Wahrscheinlichkeit höher als das des Verkäufers. Bei den Preisen der Hardware ist aufwendiger Support weniger rentabel, und der Benutzer tendiert dazu, weniger hand-holding beim Lieferanten zu kaufen. Wegen des geringeren Preises des Systems ist Hersteller-Support für diesen ebenfalls teurer, und so ist das ganze Geschäft weniger profitabel. Diese Faktoren bedingten es, daß IBM das Geschäft mit den Minis weitgehend DEC, Data General, und vielen, vielen anderen Firmen überließ, und sich darauf beschränkte, ihre Stammkundschaft, die Großfirmen, mit Minis auszustatten, wenn sie solche für spezielle Zwecke benötigten.

1.7. Die Ankunft der Microcomputer

Somit war die Welt der EDV bis vor drei Jahren säuberlich in zwei getrennte Lager aufgeteilt, in denen wenig Überlappung existierte. Diese Situation änderte sich, wie allseits bekannt, mit dem Auftreten der Microcomputer. Erstens sind Microcomputer das Geschäft mit den stärksten Zuwachsraten überhaupt. Auch in den Fachabteilungen von IBMs Stammkundschaft vermehrten sich die Micros von APPLE und Tandy massenhaft, und es war offenkundig, daß diese Geräte Aufgaben lösten, die die Groß-EDV nicht abdecken konnte. Zudem bedrohen Micros entscheidend die Basis der traditionellen Mini-Anwendungen, da die heutigen 16-Bit-Geräte die Leistungsstärke der Mini-Anlagen erreichen, und von der Software-Ausstattung und -Ökonomie diese um Größenordnungen schlagen. Ein Konzern, der sein Emblem als Synonym für "Datenverarbeitung" begreift, wird sich schwerlich aus solchen Entwicklungen heraushalten wollen oder können. Hier war auch die Chance, diese andere Hälfte des EDV-Marktes auszutrocknen, und die Oberhand in traditionellen Mini-Anwendungen zu erlangen.

1.8. IBMs Abkehr von ihrer Produktstrategie

IBM machte mit ihrem PC die größte Kehrtwendung in der Geschichte ihrer Firmenpolitik. Sie legte das gesamte System völlig offen und erlaubte jedem, der wollte, Software, Hardware für den PC, und sogar Nachahmungen des ganzen Systems zu bauen und auf einem freien Markt zu verkaufen. Es gab keine esoterischen Micro-codes, keine exotischen Betriebssysteme, und keine 24/99-tel Zoll-Gewindeschrauben mit Linksgewinde und Sollbruchstelle. Sogar der Prozessor und alle elektronischen Bestandteile des Geräts sind auf dem Markt frei verfügbar. Es wurde weiter oben erläutert, wie IBM den Markt der Großcomputer errang. Wie sie ihn behielt, ist eine andere Geschichte. Wenn eine Technologie eingeführt ist, finden sich schnell Konkurrenten, die ohne den großen Forschungsaufwand des Entwicklers, und huckepack auf seinen Bemühungen, das Produkt bei den Käufern einzuführen, mit billigeren Versionen derselben Systeme in dessen Markt einbrechen - die PCMs. Diese Geschichte ist ebenfalls bestens bekannt, wie die Gerichtsverfahren, die sie markierten.

1.9. Wie eine Vormachtstellung zu halten ist

Trotz aller Legislaturen, die verabschiedet wurden, um IBM zu veranlassen, ihre technischen Details offenzulegen, gelang es immer wieder, die Konkurrenz abzuschütteln. Es stellte sich heraus, daß ein Konzern, der in der Lage ist, den Gang der technologischen Entwicklung zu bestimmen, in keiner Weise an Auflagen gebunden ist, die sich an den gerade bestehenden Möglichkeiten und Ökonomien von eben diesen Technologien orientieren, die dieser Konzern mit seinen neuen Produkten kontinuierlich verändert und verbessert, vor allem aber in einem immer höheren Tempo als dem der Legislaturen. Offenlegungspflichten, die auf Dokumentation in Form von Papier bezogen sind, sind nur das Papier wert, auf dem sie stehen, wenn man dazu übergeht, die Dokumentation auf Magnetspeichermaterial abzulegen. In diesem Augenblick sind die Suchkriterien der dazugehörigen Datenbank-Software der entscheidende Faktor, ob eine gesuchte Information gefunden werden kann oder nicht, beziehungsweise, ob sie in einem ökonomisch vertretbaren Zeitraum (bei ca. 10.000 Seiten Dokumentation) gefunden werden kann. Wenn aber in einem Gesetzesentwurf dieser Faktor der Datenbanken nicht enthalten ist, gibt es keine legale Bindung. Diese Möglichkeit besteht natürlich auch schon in der papiergebundenen Dokumentation, und fällt mehr unter die Problematik wissenschaftlicher Literatur generell, von der man ja gewohnt ist, daß nur Leute, die sie selbst schreiben könnten, sie auch verstehen. Wenn Dokumentation als Referenzhandbuch, ohne die dazugehörigen Verbindungsschlüssel, zu Papier gebracht wird, dann ist es bei 10.000 Seiten ein entscheidender Zeitfaktor, ob man wahllos die Dokumentation durchblättert, auf der zufälligen Suche nach der Information, oder ob man einen Kursus beim Hersteller gemacht hat, in dem einem das Schema der logischen Struktur der Dokumentation (die Meta-Information), und das nur mündlich, ohne Hinweis dazu in den Kursusunterlagen, gegeben wurde. Der Kursusteilnehmer findet hinterher die Information, die er sucht, aber er hat Schwierigkeiten, jemanden, der diesen Kurs nicht besucht hat, zu erklären, was es ist, wonach er suchen soll.

Ähnliche Problematiken gibt es in der Definition der Hardware und Schnittstellen. Die herkömmliche Ingenieur-Methodik richtet sich nach Diagrammen, also statischen Repräsentationen auf dem Papier. Wenn man aber dazu übergeht, die relevanten Details, nicht mehr in verdrahteter, statischer Logik, sondern in Microcode, also dynamischen Programmen zu fassen, dann verliert die statische Repräsentation des Microcodes diese dynamische Komponente, und ist in ihrem Verhalten nicht mehr mit den herkömmlich geübten Kommunikationsmethoden der Ingenieure beschreibbar. Zudem erlaubt es Microcode, nach einem, von einem Rechner in beliebiger Komplexität erzeugten Rotations- und Kombinations-schema, jede hergestellte Maschine mit einer eigenen Charakteristik zu versehen, die für den Hersteller wegen seines im Zentralcomputer vorhandenen Master-Schlüssels jederzeit rückführbar ist, aber jeden anderen erst einmal vor das Problem einer ihm unbekannten Kombinatorik stellen. Das Erfolgsrezept von IBM lautete deshalb: Erst der Vertrieb, dann die Verschlüsselung, und dann erst technische Exzellenz. Das Wort geht, daß IBM in ihrer Personalpolitik genauso vorgeht: Die besten Leute in den Vertrieb, die zweitbesten, die die Produkte gegen kopieren schützen, und dann erst die Konstrukion. IBM hat mit ihrem PC weder einen Markt angesteuert, der in ihrem angestammten Feld liegt, noch hat sie irgendwelche Versuche unternommen, ihr Produkt gegen Konkurrenz-Zugriff zu schützen. Nicht erst seit Rockefeller den Chinesen umsonst neue Lampen gegen ihre alten Funzeln eintauschte, kann man anscheinend uneigennützige Taten kritisch beleuchten. Es dürfte der IBM nicht daran gelegen sein, den PC auf alle Zeiten als offenes System stehen zu lassen. Industrieanalytiker erwarten in den weiteren Erweiterungen des PC, die IBM ihren Groß-Kunden anbieten wird, Hardware-Zusätze, die wie die anderen Geräte, fremden Zugriff verschlossen sind, so etwa der PC-370, der den Befehlscode der /370-Serie mittels zweier microcodierter MC 68000 ausführen kann. Die Millionen verkaufter PC's in Kleinbetrieben, die von /370 Emulation nicht profitieren können, lassen sich aber nur durch eine Methode unter IBM's Kontrolle bringen: Indem für die Maschinen zu einem konkurrenzlos günstigen Preis eine konkurrenzlos leistungsfähigere Software angeboten wird, die leider nur mit einem von IBM gelieferten Board läuft. Man kann sich dieses Board als fortgeschrittenen Graphik-Prozessor vorstellen, der eine bisher unerreichte Benutzer-Interaktion ermöglicht, oder ein Sprach-Board. In einem solchen Fall wären mit einem Schlag die Konkurrenten von einer Weiterentwicklung auf der von IBM nun eröffneten Entwicklungslinie ausgeschlossen, falls die Mehrzahl der Benutzer es nicht vorzieht, den von IBM einmal geschaffenen Hard- und Software-Standard beizubehalten, und weiterhin die Produkte des freien Marktes kaufen.

1.10. Die Andersartigkeit der Micro-Software-Ökonomie

Es ist allerdings fraglich, ob es für IBM profitabel wäre, den PC zum geschlossenen System zu machen. Die Ökonomie der Softwareherstellung auf Microcomputern ist eine völlig andere als die sowohl der Minis und der Mainframes. Wie wir alle wissen, begann die Ära des Microcomputers etwa im Jahre 1976 in der Garage, in der Steven Wozniak seinen Apple-Computer baute. Die Welle der Micro-Computer rollte von weit, weit außerhalb jeder respektablen Beschäftigung mit EDV auf Kleinbetriebe und Großfirmen zu. Es war aber nicht der Apple-Computer, der den Ausschlag gab. Genauer, es war nicht die Hardware, sondern die Software. Der Apple-Computer stellte für einige Hunderttausend Menschen eine Gelegenheit dar, frei von Einschränkungen jeder organisatorischen und normierenden Art, Programme zu basteln, wie es ihnen die vorhandene Hardware erlaubte. Und da ein Apple genau wie ein Mainframe eine Von-Neumannsche Maschine ist, gibt es an einem Apple-Programm nichts prinzipiell anderes, das es von einem Mainframe-Programm unterscheidet. BASIC war die Sprache der Hackers, die inzwischen durch Publikation in allen Nachrichtenmagazinen auch bei uns Popularität erlangt haben, fanatische Programmierer, meistens unter 30, oft unter 20, Schüler, Studenten, ohne weitere Qualifikationen und akademische Lorbeeren, die ihre von den Groß-EDV belächelten, primitiven Programme zusammenhackten: langsam, fehlerhaft, schlecht dokumentiert, aber sie hatten eins. Sie hatten Leben (animation). Sie waren auf einen Markt zugeschnitten, der nichts von Computern verstand, und auch nicht genötigt werden konnte, ihre Bedienung zu erlernen. Trotz ihrer lächerlichen Rechen-Leistungen lernten diese Maschinchen etwas, das die Mainframes nicht nötig hatten: Benutzer-Unterstützung. Sie nahmen dem Benutzer Arbeiten ab, die er auf dem Mainframe machen mußte, das Auswendiglernen von Kommandocodes, Dateispeicher-Schemata, und alles, was zu der hohen Kunst der Computerbedienung noch dazugehörte. Diese Programme benutzten die Fähigkeiten des Apple-Computers, Bilder zu erzeugen, und sie zum Laufen zu bringen (animation:=lebendig machen). Auf dem Umweg über Spiele-Software entstanden Programme, die nicht nur leicht zu bedienen waren, sondern dem Benutzer Informationen "spielerisch" gaben.
Das Programm, das den Weg der Spielzeug-Computer in die Konzernetagen bahnte, war Visicalc. Ein computerisiertes Rechenblatt, mit einigen wenigen leicht erlernbaren Kommandos, see-what-you-get Methodik (man sieht auf dem Computerschirm genau das, was die Maschine berechnet), mit dem Geschäftsleute Ergebnisse erzielen konnten, die sie von ihrer Großanlage nicht bekommen konnten: Schnelle, leicht erhältliche Antworten auf leicht zu formulierende Fragen. Natürlich machte man auf den Microcomputern auch Arbeiten, wie auf dem Mainframe: Listen Erstellen, Buchhaltung Führen, Dateien Verwalten.
Ein Hauptfaktor der heutigen Micro-Computerentwicklung ist ihre Zahl. Es gibt heute etwa 4 Millionen Microcomputer. Nach Schätzungen verdoppelt sich die Welt-Rechenleistung vierteljährlich, allein wegen der Stückzahlen der ausgelieferten Micros. Zu der reinen Rechenleistung kommt der Manpower-Faktor. Man kann annehmen, daß sich etwa jeder zehnte Microcomputerbesitzer näher mit seinem Gerät befaßt, und selber darauf programmiert. In den letzen 5 Jahren ist damit ein Potential von EDV-Kundigen entstanden, das zahlenmäßig die in konventioneller EDV herangewachsenen Spezialisten, wenn nicht schon heute, dann gewiß in naher Zukunft, übertrifft.

Es ist also nicht mehr die Situation eines sehr kleinen Marktes von wenigen, sehr hoch trainierten Spezialisten, die ein bestimmtes Produkt bedienen können, in dem die Entwicklung von Konkurrenzprodukten bei den enormen Kosten der Programmierung nicht ökonomisch ist. Es gibt nicht ein paar, sondern tausende von Firmen, die in der Lage sind, billig für den IBM PC Software zu erstellen. In einer solchen Situation mag es ökonomischer sein, Programmsysteme von unabhängigen Anbietern entwickeln zu lassen, und an der Hardware-Herstellung zu verdienen. Hier kommt IBM ihre gewaltige Kapitalmacht zugute, mit der sie automatisierte Fabriken errichten kann, in denen die Produktion eines einzelnen Computers nur noch vielleicht 100 oder 200 Dollar kosten wird, Ökonomien, mit denen sie alle Konkurrenten ausschalten wird.

1.11. PC gegen Mainframe ?

So mag IBM zwar den Microcomputermarkt in der Zukunft dominieren, aber wird es dieselbe IBM sein, die heute ihre Großcomputer verkauft? IBM ist intern in verschiedene 'Divisions', also Unternehmensbereiche, unterteilt. Der Bereich 'Groß-EDV' ist bei weitem der größte und profitabelste. Die Entry Systems Division, die den PC herstellt, ist dagegen noch völlig unbedeutend. Doch bereits jetzt macht sich der Einfluß der PCs in den anderen Divisions bemerkbar. Es war die Produktstrategie von IBM, für jeden Anwendungsbereich eine eigene 'Box' zu liefern, möglichst inkompatibel mit etwa gleichartigen Maschinen zu ähnlichen, aber laut Unterteilung, andersartigen Bereichen. Das natürlich aus Gründen des Profits. Nun sind PCs aber generelle Computer, weil sie alle Arten von Aufgaben erledigen. Damit können sie die traditionellen Unterteilungen der Produktplanung angreifen. Der heute sichtbare Fall sind die Textsysteme. Das 6580 Schreibsystem kostet in seiner Einstiegsversion etwa 20.000 DM. Es kann, nach IBM-Planung, kaum mehr als Texte erstellen. Es ist nicht eben sehr komfortabel zu bedienen. Es erscheint neben einem für den gleichen Preis erhältlichen PC XT mit 10 MB Winchester ein wenig vorsintflutlich, und sowohl die Kunden, als auch die Textsystem-Vertriebsmannschaft haben das schon bemerkt.

Dazu kommt noch der Ökonomiefaktor, daß der gleiche PC ohne weitere Hardware-Änderung noch hunderte von anderen Programmen benutzen kann, für die man nach der alten Trennung der Funktionen weitere 30- bis 50.000 DM anlegen müßte. So macht also IBM mit dem PC ihren eigenen Produkten Konkurrenz. Es bleibt aber nicht allein bei den Textsystemen. Als offenes System kann der PC nach Belieben aus- und aufgerüstet werden. Auch hier hat IBM allen Entwicklungen Tür und Tor offengelassen. Der PC-Markt ist ungeheuer dynamisch, und die Gesetze dieses Marktes werden in keiner annähernden Weise von IBM wie in der Groß-EDV kontrolliert. Der PC kann sowohl in Mehrfachkonfiguration als Netzwerk, oder auch mit Zusatzplatinen und mächtigeren Prozessoren ausgerüstet werden. Dabei ist es egal, von wem diese Zusatzausrüstung kommt, ob von IBM, oder einem freien Anbieter. Und dem Kunden ist es ebenfalls egal, solange das Ganze funktioniert. Somit ist der PC in der Lage, nicht nur einen einzelnen Platz zu bedienen, sondern er kann auch im Netzwerk Aufgaben übernehmen, die bis jetzt den kleinen kommerziellen Systemen von IBM vorbehalten waren, etwa dem System /34 oder /36. Er kann dies, ohne daß der Kunde gezwungen wäre, sein Betriebssystem zu wechseln, in kleinen und verträglichen Ausbaustufen. Die Entwicklung der Netzwerke (LANs) ist gerade am Anfang, und das, was heute auf dem Markt ist, wird in den nächsten Jahren noch gewaltig ausgebaut werden. Man kann also erwarten, daß der PC einen Einfluß auf den Absatz der kleinen DV-Systeme von IBM haben wird. Dies alles aber berührt den Großcomputerbereich von IBM, ihre Hauptstütze, immer noch wenig. Die Macht der Mainframes erscheint von allen Bewegungen im Micro-Sektor völlig unberührt. Das liegt natürlich daran, daß die riesige Komplexität von Groß-EDV nie mit PC's bewältigt werden kann, auch wenn sie den /370 Code beherrschen. PC's sind sicher nicht in der Lage, die bestehenden Arbeitsmethoden der Groß-EDV zu übernehmen, höchstens, sie zu unterstützen.

Aber es ist nicht ganz sicher, ob das auch für immer so bleiben wird. Es gibt da einige Faktoren: Erstens, ist die Entwicklung der Micros etwa eine Größenordnung schneller als die der Mainframes. Das heißt, wie weit voraus man auf dem Mainframe-Sektor auch sein mag, es ist absehbar, daß die Micros auch da hinkommen werden. Heute werden die ersten 32-bit Einchip-Computer in Serie hergestellt. Maschinen, die die Leistung einer kleinen /370 für einen einzigen Benutzer bereitstellen. Zu einem Preis, der für den Prozessor bei einem Tausendstel des vergleichbaren Mainframe-Computers liegt, bei einem kompletten System etwa ein Zehntel. Da prinzipiell ein PC mit einer Zusatzkarte ausgerüstet werden kann, die einen solchen 32-bit Hochleistungsprozessor enthält, (Siehe den /370 PC, der den Instruktionssatz des Mainframes ausführt) ist es nicht mehr so ganz klar, wozu man den Mainframe überhaupt noch braucht. PCs sind allgemeine Computer, allgemeiner als die Mainframes, weil sie von der Allgemeinheit bedienbar sind, und sie wachsen kontinuierlich und sehr schnell in ihrer Leistung.
Bis jetzt ist es noch ein Problem, mehrere PCs in einem Netz zur Koordination zu bringen. Es ist ein eine Faustregel der Computerei, daß die gemeinsame Leistung von Prozessoren sinkt, wenn sie zu mehreren zusammengeschaltet werden. Bei etwa 5 Maschinen gibt es nur noch negative Mehrleistung, und etwa 10 leisten weniger als einer. Das ist aber ein Problem der Computer-Theorie, die parallele Prozesse noch nicht beherrscht, und eine Frage der Forschung. Es ist klar, daß keine Firma, die ihre Macht auf große Zentralprozessoren gründet, sich lange mit aufwendiger Forschung zu Multiprozessoren aufhalten wird. Vor der Micro-Ära war es wesentlich billiger, große Zentral-Prozessoren zu bauen, als viele kleine. Heute hat sich auch das umgekehrt. Und die Forschung wird folgen. In ein paar Jahren werden wir Parallelprozessor-Modelle haben, die ein wirksames Zusammenarbeiten von hunderten, und tausenden von Maschinen regeln können.
Dann wird es wahrscheinlich auch keine Mainframes im heutigen Sinne mehr geben, sondern spezialisierte Prozessoren, die etwa die Dateiverwaltung von großen Datenbanken übernehmen, oder die die Ablaufsteuerung in den Netzwerken regeln. Und vielleicht werden diese Prozessoren die Nachfolgemodelle der heutigen IBM-Mainframes sein.

Daß Mainframes, wie wir sie heute kennen, vielleicht nur eine vorübergehende Erscheinung auf dem Computersektor sind, mag auch die zweite Überlegung andeuten: Es ist möglich, die Strukturen von Rechnersystemen und von Firmen zu vergleichen. In einer großen Firma ist das Rechnersystem für die Organisation so etwas wie ein Nervennetz für einen Organismus.
Die heutigen Großrechner sind nach dem Von-Neumannschen Prinzip konstruiert, es gibt eine Zentral-Stelle, durch die alle Operationen der Maschine geleitet werden, die CPU. In seiner Arbeitsweise ähnelt eine solche Maschine einem absolutistischen Staat, wie Frankreich im 17. Jahrhundert, bei dem alle Entscheidungen über den König, also die Zentralstelle, gehen mußten. In modernen Unternehmen ist diese zentralistische Struktur in der Buchhaltung und dem obersten Management enthalten, durch die alles, was in dieser Firma passiert, in Form von Zahlen gehen muß. Und genau diese Struktur wird von der Rechenanlage unterstützt.
Eine lebendige Firma ist aber ein Netzwerk von Personen und Prozessen, mit delegierter Verantwortung und Entscheidung. Es ist ein parallelverarbeitendes System, mit vielen menschlichen Intelligenzen, die koordiniert einem Ziel zuarbeiten. Ein Netzwerk von PCs kann dem Unternehmensziel dienen, indem es jedem der menschlichen Entscheidungsträger einen persönlichen Intelligenzverstärker bietet, und ihn mit allen anderen Beteiligten in einen strukturierten Kontakt bringen kann. Die Analogie dazu ist ebenfalls der Organismus. Jedes Lebewesen hat ein motorisches Nervensystem, das ihm koordinierte Aktionen erlaubt. Dies ist zentral organisiert. Es hat aber gleichzeitig auch ein automatisches Nervensystem, das lokal autonom ist, und dessen Funktionen mit denen der PCs in einzelnen Abteilungen vergleichbar sind.
Die gewaltige Komplexität heutiger Großunternehmensführung hat hauptsächlich seine Ursache in dem Anspruch, alle Vorgänge durch dieses Nadelöhr des Zentralprozessors zu zwängen, verständlich, weil ja bis jetzt keine Alternative zur Verfügung stand, aber heute, mit den modernen Hilfsmitteln, nicht mehr zeitgemäß. Das Anwachsen der PC-Population wird sich in neuen Unternehmensstrukturen der Großunternehmen niederschlagen, mehr auf lokale Autonomie, als auf Zentralsteuerung. Vielleicht werden auch andere Unternehmensformen entstehen. Interessanterweise bilden dafür die Profit Centers von IBM schon ein Beispiel. IBM hat diverse Zweige ihres Konzerns als relativ unabhängige Sub-Unternehmen mit eigenständiger Produktplanung und Kostenrechnung installiert, deren wesentliche Kontrolle durch den Mutterkonzern darin besteht, daß sie Gewinn erwirtschaften müssen.
Eine solche Dezentralisierung ließe sich auch 'von unten' her erreichen, indem sich mehrere kleine Unternehmen mit Hilfe von Rechnernetzen als Kommunikationsmedium zusammenschließen, eventuell um gemeinsame Markt- oder Absatzplanung zu koordinieren. Oder auch in Form von Dienstleistungsgesell-schaften, die eben diese Funktion für einen Kundenkreis erfüllen. Die Technologie der PCs, zusammen mit weiterentwickelten Datenkommunikationsmethoden, kann einen Umschwung von den gewohnten Bildern der Unternehmenslandschaft bringen, mit weniger gravierenden Unterschieden zwischen Groß- und Kleinunternehmen.
Auf diese Weise könnte sich IBM im eigenen Hause die stärkste Konkurrenz für die alten Methoden der Datenverarbeitung geschaffen haben, und vielleicht wird man in einigen Jahren sagen, daß es nicht Apple, und auch nicht die Japaner waren, die den größten Faktor für die Änderung der Unternehmens- und DV-Strukturen gegeben haben, mithin auch dem Bild und dem Symbol von IBM sondern - der IBM-PC.
Der unoffensichtliche Grund ergibt sich aus den oben angeführten Kostenfaktoren. Die Ökonomie der Groß-EDV hängt zu einem großen Teil an dem hohen Grad der Spezialisation der Fachkräfte. Wegen ihrer hohen Kosten werden Investitionen im Bereich der Programmierung mehr in die Produktion gelenkt, als in die Unterstützung der Programmierung. Interaktives Programmieren, wie es auf Micros gang und gäbe ist, existiert in der Groß-EDV nicht. Eine Compilersprache muß immer im "batch" entwickelt werden: Entwurf, Codieren, Kompilieren, Debugging. Das sind getrennte Arbeitsschritte, ob sie am Terminal gemacht werden, oder auf Lochkarte.
Auf einem Microcomputer kann man "fliegend" programmieren, etwa in BASIC, mit nicht mehr als ein paar Zetteln Papier, auf die man seine grundlegenden Ideen geschrieben hat. Ein Bild, das einem Groß-EDV Experten die Haare sträuben lassen würde. Warum? Es ist klar, daß mit einer Compilersprache wie COBOL bei einer solchen Arbeitsweise nicht viel herauskommen würde. Dehalb ist so eine Arbeitsweise auch verpönt. Aber man hat in der Groß-EDV keine Programmiersprachen entwickelt, die interaktives Programmieren maximal unterstützen.
Im Bereich der Microcompuer aber sind diese Entwicklungen im vollen Gange. Zwar macht auch BASIC macht interaktives Programmieren nur möglich, aber es unterstützt es nicht. Aber entsprechende Programmiersprachen beginnen sich aber in der Micro-Szene zu entwickeln. Eine Sprache wie SMALLTALK zum Beispiel. Ebenso Personal COBOL von Micro Focus, das nicht für Großcomputer entwickelt wurde sondern für PCs. Mit solchen Sprachen können Programme wesentlich schneller entwickelt werden, weil man die interaktiven Möglichkeiten der PCs optimal ausnutzt. Hier bieten Microcomputer neue, und andersartige Entwicklungen im Vergleich zur Groß-EDV. Ein System wie Personal Cobol ließe sich recht leicht in eine Groß-EDV Umwelt einfügen, aber Sprachen wie SMALLTALK weniger. Hier gibt es beträchtliche Hindernisse der Kompatibilität. Andersartige Sprachen führen zu andersartigen Lösungen:
Man kann daher wohl abwarten, bis die Benutzerkonzepte der Spiel-Software auf die Mainframes überdiffundiert sind, bis Dokumentation auf intelligenten Microcomputern in Form von relationalen Datenbanken abgespeichert ist, die nach dem Query-System Auskunft geben, bis man sich in computerisierten Einführungskursen mit Graphik und Animation über die Prinzipien der System-Hardware und Software informieren kann, ohne die Notwendigkeit von 6 Wochen Herstellerseminar. Dem Kostenfaktor einer verbilligten Programmierung kann sich wohl keiner entziehen. Standardprograme für PCs erlauben heute viele Arbeiten, die bisher überhaupt nicht oder nur auf eine sehr stark strukturierte Weise gemacht werden können. Die Entwicklung geht weiter. Es ist zu erwarten, daß mit neuen Möglichkeiten auch andere Arbeitsstrukturen in Betrieben entstehen werden. Strukturen, die die Abhängigkeit von der zentralen Organisation eines Mainframe-Rechenzentrums wesentlich verringern werden.


previous next Title Contents Index