Eine Rückwirkung des PC auf IBM heißt: Rückwirkung der Micro-Computer auf die EDV. Der Begriff IBM ist seit Beginn der Datenverarbeitung das Leitwort der Industrie. Vor dem Erfolg der Microcomputer bestand EDV aus zwei Bereichen, der kommerziellen Groß-Datenverarbeitung, die von den Mainframes der IBM geprägt war, und der technischen Datenverarbeitung, die gleichzusetzen war mit Minis und ihren Marktführern DEC und Data General. Beide Märkte unterschieden sich strukturell grundlegend. Mit dem Dazukommen der Micros kommen auf die Anwendungsbereiche dieser Geräte neue Strukturverschiebungen zu. Um den Einfluß der Micros auf die EDV zu untersuchen, soll hier erst einmal eine Betrachtung der vorhandenen Organisationsformen, Unternehmensstrukturen, und Wirtschaftsmethodiken gemacht werden. Mainframes sind untrennbar mit der Existenz der großen Konzerne, und Staats-Organisationen verbunden. Sie sind untrennbar von zentralisierter Steuerung und hierarchischem Management. Mainframes machen Großkonzerne heutigen Ausmaßes erst überlebensfähig.
IBM
ist in allen Fasern ihrer Struktur darauf ausgerichtet, diesen Markt genau so
zu bedienen, wie er es in allen seinen Eigenheiten erfordert, und das besser zu
machen, als alle ihre Konkurrenten. Es ist nicht die technologische
Überlegenheit, die IBMs Vormachtstellung begründet. IBM
überließ ihren Konkurrenten das Ausprobieren von technologischen
Neuheiten, und führte sie selber ein, wenn die Konkurrenz die
Eingewöhnungsprobleme im Markt gelöst hatte. In der
Prioritäten-Rangliste der IBM-Strategie ist Technologie die letzte. Vor Technologie liegen
die Qualitäten Zuverlässigkeit, der Produkte, wie des Kundendienstes
und, an erster Stelle - Marketing. Während die Technologie der IBM
Gegenstand vieler Diskussionen ist, etwa im Bereich der PCM's, der ungebetenen
Zulieferer zu den Anlagen von IBM, oder der Gesetzgebung, oder in dem Image,
das IBM von der Qualität seiner Produkte aufgebaut hat, so ist die
Methodologie des Selling wohl das am besten gehütete Geheimnis von IBM.
Und auch hier zeigt es sich, daß Technologie sich wegen des greifbaren
Objekts trotz aller aufgerichteten Hindernisse als "an"-greifbar erweist, also
nachgebaut werden kann, die Strukturen, die in der Schulung und Prägung
der Mitarbeiter liegen, aber nicht nur schwer nachgeahmt werden können,
sondern sich sozusagen als Langzeitwirkung auch dann noch auswirken, wenn
dieser Mitarbeiter die Firma schon lange verlassen hat, und woanders, bei einem
Anwender oder sogar der Konkurrenz arbeitet, aber oft immer noch zum Vorteil
seiner alten Mutterfirma.
Das Image von IBM und Erscheinungsbild des IBMers sind unnachahmlich. Dies ist
es, was der IBM in dem vorwiegend konservativen Markt der Konzern-Chefetagen
ihren Erfolg eingebracht hat. Für die Häupter der Banken und
Versicherungen zählt technische Brillianz wenig. Wenig zählt auch
leichte Bedienbarkeit, oder Extras, die "bells and whistles" in Software und
Hardware. Was zählt, sind Zuverlässigkeit, und die
Kompatibilität mit dem Hergebrachten. Die absolute Zuverlässigkeit,
für einen im Umgang mit allen Eventualitäten des Zufalls
geschärften Blick eines Versicherungs-Managers, die IBM so
zuverlässig garantiert. Dies ist nicht nur auf den materiell vorhandenen
technologischen Apparat der IBM zurückzuführen, sondern auch auf die
Schulung ihres Verkaufspersonals, sich genau auf die äußerst feinen
und subtilen Kommunikations- und Selektionsmethoden der Manager-Elite
einzuspielen, so fein, daß der VB am Schluß des Spiel mehr
bestimmt, als die ihm gegenübersitzenden Gesprächspartner. Das
Gruppen-Psychogramm der Management-Elite von Großfirmen wird von IBM
offenbar am besten verstanden, wobei heute zur Hilfe kommt, daß die
Gesprächspartner der IBM-VB's oder zumindest deren nächste Berater in
der DV-Leitung oft vor 10 oder 15 Jahren selber durch die Schulung von IBM
gegangen sind.
IBM ging mit den Großfirmen der westlichen Welt eine Symbiose ein, und
sie erfüllt in allen diesen Firmen dieselbe Funktion: Die Bereitstellung
der technischen Voraussetzungen für das "Nervensystem" dieser
Organisationen, wenn man diese Analogie hier einmal gebrauchen darf. Die Arten
und Weisen, wie EDV überhaupt definiert wird, mit all ihren Konsequenzen,
die von der Systemanalyse bis zur Programmiermethodik reichen, sind von diesem
Verbund geprägt. Es ist nicht richtig zu sagen, IBM prägt dieses
Bild, sie verkörpert es nur. Es ist eine Interaktion der kollektiven
Benutzergemeinde und IBM, in der IBM aufgrund ihrer Zentralstellung
natürlich größeres Gewicht hat, als jeder Einzelne ihrer
Geschäftspartner.
Die Maximen der DV-Methodik aber werden von den Kunden geprägt. So
überlebensnotwendig heute die EDV für die Konzerne ist, so gefahrvoll
ist eine Technologie, deren Auswirkungs-Perspektiven und Kostenfaktor sich mit
jedem Tag ändern, an dem ein neues Rechnermodell, oder ein neues
Peripheriegerät vorgestellt wird. Nicht nur in den vielbeschworenen
Gefahren für die Gesellschaft, sondern zuerst und vor allem für die
betroffenen Konzerne, die einen Vitalteil ihrer Investitionen in diesen Komplex
geleitet haben, und deren Zukunft von einer technologischen Neuerung in Gedeih
und Verderb beeinflußt werden kann. Manche Benutzer mögen die
relative Überalterung der Software-Konzepte von IBM kritisieren. In der
Tat aber ist dies die Grundvoraussetzung, damit diese Systeme von den
DV-Leitern und ihren Stäben akzeptiert wurden. Kompatibilität zum
Bestehenden ist die oberste Maxime, der sich alle Überlegungen von
Effizienz, Leistungsfähigkeit und Bedienungsfreundlichkeit unterzuordnen
haben. IBM verstand es am besten, das potentiell verunsichernde Element einer
revolutionären Technologie so in die Geschäftswelt einzubringen,
daß die EDV der Großkonzerne lückenlos die schon vorhandenen
Arbeits-Strukturen, Kommunikationskanäle, und Kommando-Hierarchien
bediente, ohne sie auch nur im geringsten durch technologische
Herausforderungen zu beeinträchtigen.
Dies ist die Funktion von IBM als gesellschaftlicher Institution. Sie bietet einen lebensnotwendigen Puffer für die Großunternehmen, in dem potentiell revolutionäre Technologien, wie heute die PC's, sozusagen dosiert an die Anwenderwelt weitergegeben werden. Die Garantie, die Anwender vor den Schlägen eines Marktes schützen, in dem eine Investition in ein Computerystem, die man gestern gemacht hat, heute nur noch die Hälfte wert ist, weil über Nacht der Preis des Systems um die Hälfte gefallen ist, ein Markt, in dem gestern noch das Betriebssystem CP/M der allgemein herrschende Standard war, heute aber MS-DOS, und die Investitionen, die eine Firma mit Geräten und Software in dem alten Betriebssystem gemacht hatte, nun vom Fortschritt abgeschnitten sind, weil alle neuen Programme unter MS-DOS herauskommen, und vielleicht, vielleicht aber auch nicht, später unter CP/M zu haben sind. Support für Geräte und Software schwindet, weil sich alle Anbieter dem neuen Betriebssystem zuwenden. (Es stört nicht an dieser Überlegung, daß besagter Umsturz der Betriebssysteme von IBM selber eingeleitet wurde) IBM bietet die Garantie dafür, daß eine einmal getätigte Investition in einem System sich über eine normale Lebensdauer amortisieren wird.
Diese
Konstanz kostet ihren Preis. Es sei hier nicht auf den offensichtlichen Preis
verwiesen, der sich in Mark und Pfennig für die IBM-Beraterhonorare und
Systempreise ausdrücken läßt, sondern auf die Kosten, die in
keiner (computerisierten) Buchhaltung berücksichtigt werden können.
Der Preis für die Konstanz. Es wurde schon oben angedeutet, mit dem Punkt
Überalterung der System-Konzepte in der Groß-EDV. Es wirken hier
viele Systemfaktoren zusammen. Die erste Forderung der Anwender ist die
Kompatibilität mit dem Bestehenden. Der wesentliche Gradmesser dafür
ist, daß alle Software, die sich seit zum Teil sehr geraumer Zeit in den
Betrieben angesammelt hat, auf den neuen Geräten laufen muß, und
umgekehrt die neuen Geräte von den Fachkräften, die schon seit Jahren
in diesem Geschäft sind, ohne große Umschulung bedienbar sein
müssen. Diese Situation hat zu einigen Besonderheiten des EDV-Marktes
geführt. Es ist kein Geheimnis, daß EDV-Manpower zu den teuersten
Diensten dieser Wirtschaft gehört. Es ist sehr teuer, Nachwuchskräfte
auszubilden, und so wird dies in den Anwenderbetrieben nur nach Notwendigkeit
getan. IBM hält im Bereich der Mitarbeiter-Fortbildung die einsame Spitze
und prägt die Ausbildung entsprechend, einerseits durch die
kontinuierliche Abwerbung der von IBM trainierten Fachkräfte in die
Anwenderkreise, andererseits natürlich durch die von IBM veranstalteten
Schulungen, die auch hier den größten Marktanteil besitzen.
Schulungen von Fremdanbietern verwenden zudem gerne IBM-Kursusmaterialien,
identisch bis leicht abgewandelt. Dies prägt natürlich entscheidend
das Bild Fachkräfte von dem, was EDV ist, und wie sie zu bewerkstelligen
ist, und gibt ihnen natürlich auch eine Idee davon, wer diese Aufgaben am
Besten löst.
Wegen der hohen Kosten für die Ausbildung gibt es gemessen an den zu
erledigenden Aufgaben viel zu wenig Kräfte, und das macht ihren
möglichst effektiven Einsatz zum Gebot. Sie lassen sich am effektivsten
einsetzen, wenn man ihnen möglichst keine Umschulungen oder
Umgewöhnungen auf andere Systeme abverlangt, für die sie bis zu einem
halben Jahr brauchen, um in ihnen effektiv arbeiten zu können. Aus diesen,
und aus den Softwaregründen, sehen die Betriebs- und Programmier-systeme
heute noch genauso aus wie vor 20 Jahren. TSO und MVS orientieren sich an den
Gegebenheiten von Batch-orientierter Abwicklung, und übertragen diese
Strukturen in eine völlig anders geartete Situation. Durch den Zwang zur
Kompatibilität haben diese Systeme in Bezug auf Maschinen-effizienz einen
Wirkungsgrad von 20 bis 50 %, wenn man als Maßstab eine auf die neue
Technologie optimierte Software nehmen würde. Dies muß alles bezahlt
werden, in Form von Programmier-Kosten und immer größer werdenden
MIPS-Leistungen der jeweils neuen Maschinen-Generation, die alle
vorhergehenden Modelle emulieren muß.
Das heute allgemein gebräuchliche Betriebssystem MVS hat eine
20-Jährige Geschichte hinter sich, in der es aus den Anfängen des OS
durch Anlagerung von immer weiteren "features" und Leistungen von release zu
release wuchs und wuchs, immer mit der Notwendigkeit der Kompatibilität zu
den Vorgängersystemen. Ein solches Wachstum nennt man im englischen
"growth by accretion", im Gegensatz zu "growth by design". Ihr Hauptfaktor ist
"historisch", während bei einem modernen Betriebssystem der Faktor
"orthogonal" bestimmend ist.
Der Faktor "historisch" bedeutet, daß man die Funktionen des Systems am
besten versteht, wenn man die Entwicklung des Systems von den alten Zeiten des
OS her verfolgt, und sieht, wie die alten Konventionen die Eigenschaften von
neuen Komponenten bestimmten.
"Orthogonal" im Gegensatz dazu heißt, daß es eine klare logische
Klassifizierung horizontaler und vertikaler Komponenten des Systems gibt.
Horizontal heißt hierbei die Abstufung von maschinennahen Komponenten
über Betriebssystem und Anwendungsprogrammierung bis hin zur
Benutzerschnittstelle.
Vertikale Komponenten sind Funktionen. Etwa die Funktion "Dateizugriff". So ist
etwa eine Anfrage eines Benutzers an ein Anwendungsprogramm mit einem
Dateizugriff verbunden, den das Programm an das Betriebssystem weitergibt. Das
Betriebssytem aktiviert seinerseits die physikalischen Mechanismen, die auf den
Massenspeicher zugreifen können. So ist die Funktion "Dateizugriff" auf
allen Ebenen des Computersystems repräsentiert, und eine Vertikale
Komponente. In einem orthogonal geplanten System haben die verschiedenen
Funktionen des Systems (die vertikale Komponente) in den jeweiligen
horizontalen Ebenen entweder gleiche oder entsprechende
Ausführungsbedingungen und Kommandostrukturen.
Durch Akkretion gewachsene Systeme zeichnen sich dadurch aus, daß die
Bezeichnungen ihrer Komponenten und ihre Bedienungskonventionen sich keiner
Normierung in Bezug auf horizontale oder vertikale Klassifikation unterwerfen
lassen, so daß es je nach Funktion oder Sub-system eine jeweils
verschiedene hierarchische Unterteilung und verschiedene
Bedienungs-Konventionen gibt.
Die Gründe für diese Verwirrungen liegen natürlich auch in der historischen Entwicklung. Das Verhältnis zwischen Hardware- und Softwarekosten hat sich in den letzten 30 Jahren umgekehrt. Waren früher die Hardwarepreise astronomisch hoch, ist es heute die Software. Es war damals klar, daß man mit den ungeheuer kostbaren technischen Ressourcen so sparsam wie möglich umgehen mußte, und jede Software nur mit einem Minimum an Bedienerkomfort die maximal effiziente Ausnutzung der Hardware bedingte. Als die Hardwarekosten sanken, hatte sich aber schon die erwähnte Struktur aus Anwendern und Anbieter gebildet, die mit der vorherrschenden Ökonomie der Programmierung immer noch die Maxime der maximalen Kompatibilität befriedigen mußte, und so kam, was heute als die "Softwarekrise" bezeichnet wird:
In
jedem System, das durch Hinzufügung von Komponenten ohne logische
Strukturierung wächst (akkretion), vermehrt sich die Komplexität
exponentiell, wenn die Zahl der Komponenten linear zunimmt. Es ist nur einer so
riesigen Organisation wie IBM mit ihrem Hunderte-Milliarden-Haushalt
möglich, eine solche Komplexität zu bewältigen. Man kann wohl
den Argumenten der IBM glauben, daß die nicht wirklich vorhersehbare
Entwicklung des Bedarfs und der Technik keine Strukturierung ihrer Systeme
erlaubt hat, aber man muß doch bemerken, daß alle Software-Entwicklungen nicht einmal Rücksicht auf gemeinsame Bedienungskonventionen
nehmen, als hätten sich nicht verschiedene Gruppen innerhalb von IBM,
sondern völlig verschiedene Firmen, ohne Kenntnis voneinander, an die
Entwicklung der Systemkomponenten der IBM-Betriebssysteme gemacht. Es ist
folgerichtig, daß als Endprodukt die in den Zwängen ihrer selbst
geschaffenen DV-Komplexität gefangenen Unternehmen der ideale, wie man im
englischen sagt: "captive market" für IBM sind, ohne irgendeine
Möglichkeit, diese exponentielle Vermehrung der Komplexität jemals
aufzuhalten, wollen sie nicht ihre eigene Existenz aufs Spiel setzen. Im Zuge
einer rationalisierenden Wirtschaft sind aber solche Kosten zu vertreten, wenn
man dadurch andere Kosten einsparen kann. Dies sind die Arbeitskräfte, die
wesentlich weniger verdienen, als DV-Spezialisten, von denen man früher
viele brauchte, heute aber weniger. Es handelt sich hierbei also um eine
Kosten-Umstrukturierung, in der die Gesellschaft, die das Training der
Arbeitskräfte für ihre nun freiwerdenden Stellen bezahlt hat, nun die
Folgekosten der Arbeitslosenunterstützung und Umschulung tragen muß.
Daß IBM im Geschäft der Groß-EDV auf anderer Ebene als der
technologischen arbeitet, läßt sich exemplarisch am Gegenbeispiel
zeigen. IBM hatte nie einen starken Stand im Mini-Computer-Geschäft.
Nicht, daß IBM nicht in der Lage gewesen wäre, konkurrenzfähige
Geräte zu bauen. Das Modell I war keine technologische Anstrengung von
Seiten IBMs, den Minicomputermarkt zu erobern. Die gesamte Struktur des
Apparates von IBM ist nicht darauf eingerichtet, diese Geräte zu
vermarkten. Die Beschaffungssituation ist anders im Minicomputergeschäft.
Kleine Firmen und Laboratorien haben eine völlig andere Struktur als
Großkonzerne. Der, der über den Ankauf von EDV entscheidet, ist
meist mehr technisch orientiert, und wird sich deshalb in seinem Gespräch
mit dem Verkäufer auch mehr auf leistungsbezogene, bedienungsorientierte,
und technische Fragen konzentrieren, und sein Fachwissen in Bezug auf die
exakten Qualitäten der Maschine ist mit einiger Wahrscheinlichkeit
höher als das des Verkäufers. Bei den Preisen der Hardware ist
aufwendiger Support weniger rentabel, und der Benutzer tendiert dazu, weniger
hand-holding beim Lieferanten zu kaufen. Wegen des geringeren Preises des
Systems ist Hersteller-Support für diesen ebenfalls teurer, und so ist das
ganze Geschäft weniger profitabel. Diese Faktoren bedingten es, daß
IBM das Geschäft mit den Minis weitgehend DEC, Data General, und vielen,
vielen anderen Firmen überließ, und sich darauf beschränkte,
ihre Stammkundschaft, die Großfirmen, mit Minis auszustatten, wenn sie
solche für spezielle Zwecke benötigten.
Somit war die Welt der EDV bis vor drei Jahren säuberlich in zwei getrennte Lager aufgeteilt, in denen wenig Überlappung existierte. Diese Situation änderte sich, wie allseits bekannt, mit dem Auftreten der Microcomputer. Erstens sind Microcomputer das Geschäft mit den stärksten Zuwachsraten überhaupt. Auch in den Fachabteilungen von IBMs Stammkundschaft vermehrten sich die Micros von APPLE und Tandy massenhaft, und es war offenkundig, daß diese Geräte Aufgaben lösten, die die Groß-EDV nicht abdecken konnte. Zudem bedrohen Micros entscheidend die Basis der traditionellen Mini-Anwendungen, da die heutigen 16-Bit-Geräte die Leistungsstärke der Mini-Anlagen erreichen, und von der Software-Ausstattung und -Ökonomie diese um Größenordnungen schlagen. Ein Konzern, der sein Emblem als Synonym für "Datenverarbeitung" begreift, wird sich schwerlich aus solchen Entwicklungen heraushalten wollen oder können. Hier war auch die Chance, diese andere Hälfte des EDV-Marktes auszutrocknen, und die Oberhand in traditionellen Mini-Anwendungen zu erlangen.
IBM machte mit ihrem PC die größte Kehrtwendung in der Geschichte ihrer Firmenpolitik. Sie legte das gesamte System völlig offen und erlaubte jedem, der wollte, Software, Hardware für den PC, und sogar Nachahmungen des ganzen Systems zu bauen und auf einem freien Markt zu verkaufen. Es gab keine esoterischen Micro-codes, keine exotischen Betriebssysteme, und keine 24/99-tel Zoll-Gewindeschrauben mit Linksgewinde und Sollbruchstelle. Sogar der Prozessor und alle elektronischen Bestandteile des Geräts sind auf dem Markt frei verfügbar. Es wurde weiter oben erläutert, wie IBM den Markt der Großcomputer errang. Wie sie ihn behielt, ist eine andere Geschichte. Wenn eine Technologie eingeführt ist, finden sich schnell Konkurrenten, die ohne den großen Forschungsaufwand des Entwicklers, und huckepack auf seinen Bemühungen, das Produkt bei den Käufern einzuführen, mit billigeren Versionen derselben Systeme in dessen Markt einbrechen - die PCMs. Diese Geschichte ist ebenfalls bestens bekannt, wie die Gerichtsverfahren, die sie markierten.
Trotz
aller Legislaturen, die verabschiedet wurden, um IBM zu veranlassen, ihre
technischen Details offenzulegen, gelang es immer wieder, die Konkurrenz
abzuschütteln. Es stellte sich heraus, daß ein Konzern, der in der
Lage ist, den Gang der technologischen Entwicklung zu bestimmen, in keiner
Weise an Auflagen gebunden ist, die sich an den gerade bestehenden
Möglichkeiten und Ökonomien von eben diesen Technologien orientieren,
die dieser Konzern mit seinen neuen Produkten kontinuierlich verändert und
verbessert, vor allem aber in einem immer höheren Tempo als dem der
Legislaturen. Offenlegungspflichten, die auf Dokumentation in Form von Papier
bezogen sind, sind nur das Papier wert, auf dem sie stehen, wenn man dazu
übergeht, die Dokumentation auf Magnetspeichermaterial abzulegen. In
diesem Augenblick sind die Suchkriterien der dazugehörigen
Datenbank-Software der entscheidende Faktor, ob eine gesuchte Information
gefunden werden kann oder nicht, beziehungsweise, ob sie in einem
ökonomisch vertretbaren Zeitraum (bei ca. 10.000 Seiten Dokumentation)
gefunden werden kann. Wenn aber in einem Gesetzesentwurf dieser Faktor der
Datenbanken nicht enthalten ist, gibt es keine legale Bindung. Diese
Möglichkeit besteht natürlich auch schon in der papiergebundenen
Dokumentation, und fällt mehr unter die Problematik wissenschaftlicher
Literatur generell, von der man ja gewohnt ist, daß nur Leute, die sie
selbst schreiben könnten, sie auch verstehen. Wenn Dokumentation als
Referenzhandbuch, ohne die dazugehörigen Verbindungsschlüssel, zu
Papier gebracht wird, dann ist es bei 10.000 Seiten ein entscheidender
Zeitfaktor, ob man wahllos die Dokumentation durchblättert, auf der
zufälligen Suche nach der Information, oder ob man einen Kursus beim
Hersteller gemacht hat, in dem einem das Schema der logischen Struktur der
Dokumentation (die Meta-Information), und das nur mündlich, ohne Hinweis
dazu in den Kursusunterlagen, gegeben wurde. Der Kursusteilnehmer findet
hinterher die Information, die er sucht, aber er hat Schwierigkeiten, jemanden,
der diesen Kurs nicht besucht hat, zu erklären, was es ist, wonach er
suchen soll.
Ähnliche Problematiken gibt es in der Definition der Hardware und
Schnittstellen. Die herkömmliche Ingenieur-Methodik richtet sich nach
Diagrammen, also statischen Repräsentationen auf dem Papier. Wenn man aber
dazu übergeht, die relevanten Details, nicht mehr in verdrahteter,
statischer Logik, sondern in Microcode, also dynamischen Programmen zu fassen,
dann verliert die statische Repräsentation des Microcodes diese dynamische
Komponente, und ist in ihrem Verhalten nicht mehr mit den herkömmlich
geübten Kommunikationsmethoden der Ingenieure beschreibbar. Zudem erlaubt
es Microcode, nach einem, von einem Rechner in beliebiger Komplexität
erzeugten Rotations- und Kombinations-schema, jede hergestellte Maschine mit
einer eigenen Charakteristik zu versehen, die für den Hersteller wegen
seines im Zentralcomputer vorhandenen Master-Schlüssels jederzeit
rückführbar ist, aber jeden anderen erst einmal vor das Problem einer
ihm unbekannten Kombinatorik stellen. Das Erfolgsrezept von IBM lautete
deshalb: Erst der Vertrieb, dann die Verschlüsselung, und dann erst
technische Exzellenz. Das Wort geht, daß IBM in ihrer Personalpolitik
genauso vorgeht: Die besten Leute in den Vertrieb, die zweitbesten, die die
Produkte gegen kopieren schützen, und dann erst die Konstrukion.
IBM hat mit ihrem PC weder einen Markt angesteuert, der in ihrem angestammten
Feld liegt, noch hat sie irgendwelche Versuche unternommen, ihr Produkt gegen
Konkurrenz-Zugriff zu schützen. Nicht erst seit Rockefeller den Chinesen
umsonst neue Lampen gegen ihre alten Funzeln eintauschte, kann man anscheinend
uneigennützige Taten kritisch beleuchten. Es dürfte der IBM nicht
daran gelegen sein, den PC auf alle Zeiten als offenes System stehen zu lassen.
Industrieanalytiker erwarten in den weiteren Erweiterungen des PC, die IBM
ihren Groß-Kunden anbieten wird, Hardware-Zusätze, die wie die
anderen Geräte, fremden Zugriff verschlossen sind, so etwa der PC-370, der
den Befehlscode der /370-Serie mittels zweier microcodierter MC 68000
ausführen kann. Die Millionen verkaufter PC's in Kleinbetrieben, die von
/370 Emulation nicht profitieren können, lassen sich aber nur durch eine
Methode unter IBM's Kontrolle bringen: Indem für die Maschinen zu einem
konkurrenzlos günstigen Preis eine konkurrenzlos leistungsfähigere
Software angeboten wird, die leider nur mit einem von IBM gelieferten Board
läuft. Man kann sich dieses Board als fortgeschrittenen Graphik-Prozessor
vorstellen, der eine bisher unerreichte Benutzer-Interaktion ermöglicht,
oder ein Sprach-Board. In einem solchen Fall wären mit einem Schlag die
Konkurrenten von einer Weiterentwicklung auf der von IBM nun eröffneten
Entwicklungslinie ausgeschlossen, falls die Mehrzahl der Benutzer es nicht
vorzieht, den von IBM einmal geschaffenen Hard- und Software-Standard
beizubehalten, und weiterhin die Produkte des freien Marktes kaufen.
Es
ist allerdings fraglich, ob es für IBM profitabel wäre, den PC zum
geschlossenen System zu machen. Die Ökonomie der Softwareherstellung auf
Microcomputern ist eine völlig andere als die sowohl der Minis und der
Mainframes. Wie wir alle wissen, begann die Ära des Microcomputers etwa im
Jahre 1976 in der Garage, in der Steven Wozniak seinen Apple-Computer baute.
Die Welle der Micro-Computer rollte von weit, weit außerhalb jeder
respektablen Beschäftigung mit EDV auf Kleinbetriebe und Großfirmen
zu. Es war aber nicht der Apple-Computer, der den Ausschlag gab. Genauer, es
war nicht die Hardware, sondern die Software. Der Apple-Computer stellte
für einige Hunderttausend Menschen eine Gelegenheit dar, frei von
Einschränkungen jeder organisatorischen und normierenden Art, Programme zu
basteln, wie es ihnen die vorhandene Hardware erlaubte. Und da ein Apple genau
wie ein Mainframe eine Von-Neumannsche Maschine ist, gibt es an einem
Apple-Programm nichts prinzipiell anderes, das es von einem Mainframe-Programm
unterscheidet. BASIC war die Sprache der Hackers, die inzwischen durch
Publikation in allen Nachrichtenmagazinen auch bei uns Popularität erlangt
haben, fanatische Programmierer, meistens unter 30, oft unter 20, Schüler,
Studenten, ohne weitere Qualifikationen und akademische Lorbeeren, die ihre von
den Groß-EDV belächelten, primitiven Programme zusammenhackten:
langsam, fehlerhaft, schlecht dokumentiert, aber sie hatten eins. Sie hatten
Leben (animation). Sie waren auf einen Markt zugeschnitten, der nichts von
Computern verstand, und auch nicht genötigt werden konnte, ihre Bedienung
zu erlernen. Trotz ihrer lächerlichen Rechen-Leistungen lernten diese
Maschinchen etwas, das die Mainframes nicht nötig hatten:
Benutzer-Unterstützung. Sie nahmen dem Benutzer Arbeiten ab, die er auf
dem Mainframe machen mußte, das Auswendiglernen von Kommandocodes,
Dateispeicher-Schemata, und alles, was zu der hohen Kunst der Computerbedienung noch
dazugehörte. Diese Programme benutzten die Fähigkeiten des
Apple-Computers, Bilder zu erzeugen, und sie zum Laufen zu bringen
(animation:=lebendig machen). Auf dem Umweg über Spiele-Software
entstanden Programme, die nicht nur leicht zu bedienen waren, sondern dem
Benutzer Informationen "spielerisch" gaben.
Das Programm, das den Weg der Spielzeug-Computer in die Konzernetagen bahnte,
war Visicalc. Ein computerisiertes Rechenblatt, mit einigen wenigen leicht
erlernbaren Kommandos, see-what-you-get Methodik (man sieht auf dem
Computerschirm genau das, was die Maschine berechnet), mit dem
Geschäftsleute Ergebnisse erzielen konnten, die sie von ihrer
Großanlage nicht bekommen konnten: Schnelle, leicht erhältliche
Antworten auf leicht zu formulierende Fragen. Natürlich machte man auf den
Microcomputern auch Arbeiten, wie auf dem Mainframe: Listen Erstellen,
Buchhaltung Führen, Dateien Verwalten.
Ein Hauptfaktor der heutigen Micro-Computerentwicklung ist ihre Zahl. Es gibt
heute etwa 4 Millionen Microcomputer. Nach Schätzungen verdoppelt sich die
Welt-Rechenleistung vierteljährlich, allein wegen der Stückzahlen der
ausgelieferten Micros. Zu der reinen Rechenleistung kommt der Manpower-Faktor.
Man kann annehmen, daß sich etwa jeder zehnte Microcomputerbesitzer
näher mit seinem Gerät befaßt, und selber darauf programmiert.
In den letzen 5 Jahren ist damit ein Potential von EDV-Kundigen entstanden, das
zahlenmäßig die in konventioneller EDV herangewachsenen
Spezialisten, wenn nicht schon heute, dann gewiß in naher Zukunft,
übertrifft.
Es ist also nicht mehr die Situation eines sehr kleinen Marktes von wenigen,
sehr hoch trainierten Spezialisten, die ein bestimmtes Produkt bedienen
können, in dem die Entwicklung von Konkurrenzprodukten bei den enormen
Kosten der Programmierung nicht ökonomisch ist. Es gibt nicht ein paar,
sondern tausende von Firmen, die in der Lage sind, billig für den IBM PC
Software zu erstellen. In einer solchen Situation mag es ökonomischer
sein, Programmsysteme von unabhängigen Anbietern entwickeln zu lassen, und
an der Hardware-Herstellung zu verdienen. Hier kommt IBM ihre gewaltige
Kapitalmacht zugute, mit der sie automatisierte Fabriken errichten kann, in
denen die Produktion eines einzelnen Computers nur noch vielleicht 100 oder 200
Dollar kosten wird, Ökonomien, mit denen sie alle Konkurrenten ausschalten
wird.
So
mag IBM zwar den Microcomputermarkt in der Zukunft dominieren, aber wird es
dieselbe IBM sein, die heute ihre Großcomputer verkauft? IBM ist intern
in verschiedene 'Divisions', also Unternehmensbereiche, unterteilt. Der Bereich
'Groß-EDV' ist bei weitem der größte und profitabelste. Die
Entry Systems Division, die den PC herstellt, ist dagegen noch völlig
unbedeutend. Doch bereits jetzt macht sich der Einfluß der PCs in den
anderen Divisions bemerkbar. Es war die Produktstrategie von IBM, für
jeden Anwendungsbereich eine eigene 'Box' zu liefern, möglichst
inkompatibel mit etwa gleichartigen Maschinen zu ähnlichen, aber laut
Unterteilung, andersartigen Bereichen. Das natürlich aus Gründen des
Profits. Nun sind PCs aber generelle Computer, weil sie alle Arten von Aufgaben
erledigen. Damit können sie die traditionellen Unterteilungen der
Produktplanung angreifen. Der heute sichtbare Fall sind die Textsysteme. Das
6580 Schreibsystem kostet in seiner Einstiegsversion etwa 20.000 DM. Es kann,
nach IBM-Planung, kaum mehr als Texte erstellen. Es ist nicht eben sehr
komfortabel zu bedienen. Es erscheint neben einem für den gleichen Preis
erhältlichen PC XT mit 10 MB Winchester ein wenig vorsintflutlich, und
sowohl die Kunden, als auch die Textsystem-Vertriebsmannschaft
haben das schon bemerkt.
Dazu kommt noch der Ökonomiefaktor, daß der gleiche PC ohne weitere
Hardware-Änderung noch hunderte von anderen Programmen benutzen kann,
für die man nach der alten Trennung der Funktionen weitere 30- bis 50.000
DM anlegen müßte. So macht also IBM mit dem PC ihren eigenen
Produkten Konkurrenz.
Es bleibt aber nicht allein bei den Textsystemen. Als offenes System kann der
PC nach Belieben aus- und aufgerüstet werden. Auch hier hat IBM allen
Entwicklungen Tür und Tor offengelassen. Der PC-Markt ist ungeheuer
dynamisch, und die Gesetze dieses Marktes werden in keiner annähernden
Weise von IBM wie in der Groß-EDV kontrolliert. Der PC kann sowohl in
Mehrfachkonfiguration als Netzwerk, oder auch mit Zusatzplatinen und
mächtigeren Prozessoren ausgerüstet werden. Dabei ist es egal, von
wem diese Zusatzausrüstung kommt, ob von IBM, oder einem freien Anbieter.
Und dem Kunden ist es ebenfalls egal, solange das Ganze funktioniert.
Somit ist der PC in der Lage, nicht nur einen einzelnen Platz zu bedienen,
sondern er kann auch im Netzwerk Aufgaben übernehmen, die bis jetzt den
kleinen kommerziellen Systemen von IBM vorbehalten waren, etwa dem System /34
oder /36. Er kann dies, ohne daß der Kunde gezwungen wäre, sein
Betriebssystem zu wechseln, in kleinen und verträglichen Ausbaustufen. Die
Entwicklung der Netzwerke (LANs) ist gerade am Anfang, und das, was heute auf
dem Markt ist, wird in den nächsten Jahren noch gewaltig ausgebaut werden.
Man kann also erwarten, daß der PC einen Einfluß auf den Absatz der
kleinen DV-Systeme von IBM haben wird.
Dies alles aber berührt den Großcomputerbereich von IBM, ihre
Hauptstütze, immer noch wenig. Die Macht der Mainframes erscheint von
allen Bewegungen im Micro-Sektor völlig unberührt. Das liegt
natürlich daran, daß die riesige Komplexität von
Groß-EDV nie mit PC's bewältigt werden kann, auch wenn sie den /370 Code
beherrschen. PC's sind sicher nicht in der Lage, die bestehenden
Arbeitsmethoden der Groß-EDV zu übernehmen, höchstens, sie zu
unterstützen.
Aber es ist nicht ganz sicher, ob das auch für immer so bleiben wird. Es
gibt da einige Faktoren: Erstens, ist die Entwicklung der Micros etwa eine
Größenordnung schneller als die der Mainframes. Das heißt, wie
weit voraus man auf dem Mainframe-Sektor auch sein mag, es ist absehbar, daß die Micros auch da hinkommen
werden. Heute werden die ersten 32-bit Einchip-Computer in Serie hergestellt.
Maschinen, die die Leistung einer kleinen /370 für einen einzigen Benutzer
bereitstellen. Zu einem Preis, der für den Prozessor bei einem Tausendstel
des vergleichbaren Mainframe-Computers liegt, bei einem kompletten System etwa
ein Zehntel. Da prinzipiell ein PC mit einer Zusatzkarte ausgerüstet
werden kann, die einen solchen 32-bit Hochleistungsprozessor enthält,
(Siehe den /370 PC, der den Instruktionssatz des Mainframes ausführt) ist
es nicht mehr so ganz klar, wozu man den Mainframe überhaupt noch braucht.
PCs sind allgemeine Computer, allgemeiner als die Mainframes, weil sie von der
Allgemeinheit bedienbar sind, und sie wachsen kontinuierlich und sehr schnell
in ihrer Leistung.
Bis jetzt ist es noch ein Problem, mehrere PCs in einem Netz zur Koordination
zu bringen. Es ist ein eine Faustregel der Computerei, daß die gemeinsame
Leistung von Prozessoren sinkt, wenn sie zu mehreren zusammengeschaltet werden.
Bei etwa 5 Maschinen gibt es nur noch negative Mehrleistung, und etwa 10
leisten weniger als einer. Das ist aber ein Problem der Computer-Theorie, die
parallele Prozesse noch nicht beherrscht, und eine Frage der Forschung. Es ist
klar, daß keine Firma, die ihre Macht auf große Zentralprozessoren
gründet, sich lange mit aufwendiger Forschung zu Multiprozessoren
aufhalten wird. Vor der Micro-Ära war es wesentlich billiger, große
Zentral-Prozessoren zu bauen, als viele kleine. Heute hat sich auch das umgekehrt. Und
die Forschung wird folgen. In ein paar Jahren werden wir
Parallelprozessor-Modelle haben, die ein wirksames Zusammenarbeiten von
hunderten, und tausenden von Maschinen regeln können.
Dann wird es wahrscheinlich auch keine Mainframes im heutigen Sinne mehr geben,
sondern spezialisierte Prozessoren, die etwa die Dateiverwaltung von
großen Datenbanken übernehmen, oder die die Ablaufsteuerung in den
Netzwerken regeln. Und vielleicht werden diese Prozessoren die Nachfolgemodelle
der heutigen IBM-Mainframes sein.
Daß Mainframes, wie wir sie heute kennen, vielleicht nur eine
vorübergehende Erscheinung auf dem Computersektor sind, mag auch die
zweite Überlegung andeuten: Es ist möglich, die Strukturen von
Rechnersystemen und von Firmen zu vergleichen. In einer großen Firma ist
das Rechnersystem für die Organisation so etwas wie ein Nervennetz
für einen Organismus.
Die heutigen Großrechner sind nach dem Von-Neumannschen Prinzip
konstruiert, es gibt eine Zentral-Stelle, durch die alle Operationen der
Maschine geleitet werden, die CPU. In seiner Arbeitsweise ähnelt eine
solche Maschine einem absolutistischen Staat, wie Frankreich im 17.
Jahrhundert, bei dem alle Entscheidungen über den König, also die
Zentralstelle, gehen mußten. In modernen Unternehmen ist diese
zentralistische Struktur in der Buchhaltung und dem obersten Management
enthalten, durch die alles, was in dieser Firma passiert, in Form von Zahlen
gehen muß. Und genau diese Struktur wird von der Rechenanlage
unterstützt.
Eine lebendige Firma ist aber ein Netzwerk von Personen und Prozessen, mit
delegierter Verantwortung und Entscheidung. Es ist ein parallelverarbeitendes
System, mit vielen menschlichen Intelligenzen, die koordiniert einem Ziel
zuarbeiten. Ein Netzwerk von PCs kann dem Unternehmensziel dienen, indem es
jedem der menschlichen Entscheidungsträger einen persönlichen
Intelligenzverstärker bietet, und ihn mit allen anderen Beteiligten in
einen strukturierten Kontakt bringen kann. Die Analogie dazu ist ebenfalls der
Organismus. Jedes Lebewesen hat ein motorisches Nervensystem, das ihm
koordinierte Aktionen erlaubt. Dies ist zentral organisiert. Es hat aber
gleichzeitig auch ein automatisches Nervensystem, das lokal autonom ist, und
dessen Funktionen mit denen der PCs in einzelnen Abteilungen vergleichbar
sind.
Die gewaltige Komplexität heutiger Großunternehmensführung hat
hauptsächlich seine Ursache in dem Anspruch, alle Vorgänge durch
dieses Nadelöhr des Zentralprozessors zu zwängen, verständlich,
weil ja bis jetzt keine Alternative zur Verfügung stand, aber heute, mit
den modernen Hilfsmitteln, nicht mehr zeitgemäß. Das Anwachsen der
PC-Population wird sich in neuen Unternehmensstrukturen der
Großunternehmen niederschlagen, mehr auf lokale Autonomie, als auf
Zentralsteuerung. Vielleicht werden auch andere Unternehmensformen entstehen.
Interessanterweise bilden dafür die Profit Centers von IBM schon ein
Beispiel. IBM hat diverse Zweige ihres Konzerns als relativ unabhängige
Sub-Unternehmen mit eigenständiger Produktplanung und Kostenrechnung
installiert, deren wesentliche Kontrolle durch den Mutterkonzern darin besteht,
daß sie Gewinn erwirtschaften müssen.
Eine solche Dezentralisierung ließe sich auch 'von unten' her erreichen,
indem sich mehrere kleine Unternehmen mit Hilfe von Rechnernetzen als
Kommunikationsmedium zusammenschließen, eventuell um gemeinsame Markt-
oder Absatzplanung zu koordinieren. Oder auch in Form von
Dienstleistungsgesell-schaften, die eben diese Funktion für einen
Kundenkreis erfüllen. Die Technologie der PCs, zusammen mit
weiterentwickelten Datenkommunikationsmethoden, kann einen Umschwung von den
gewohnten Bildern der Unternehmenslandschaft bringen, mit weniger gravierenden
Unterschieden zwischen Groß- und Kleinunternehmen.
Auf diese Weise könnte sich IBM im eigenen Hause die stärkste
Konkurrenz für die alten Methoden der Datenverarbeitung geschaffen haben,
und vielleicht wird man in einigen Jahren sagen, daß es nicht Apple, und
auch nicht die Japaner waren, die den größten Faktor für die
Änderung der Unternehmens- und DV-Strukturen gegeben haben, mithin auch
dem Bild und dem Symbol von IBM sondern - der IBM-PC.
Der unoffensichtliche Grund ergibt sich aus den oben angeführten
Kostenfaktoren. Die Ökonomie der Groß-EDV hängt zu einem
großen Teil an dem hohen Grad der Spezialisation der Fachkräfte.
Wegen ihrer hohen Kosten werden Investitionen im Bereich der Programmierung
mehr in die Produktion gelenkt, als in die Unterstützung der
Programmierung. Interaktives Programmieren, wie es auf Micros gang und
gäbe ist, existiert in der Groß-EDV nicht. Eine Compilersprache
muß immer im "batch" entwickelt werden: Entwurf, Codieren, Kompilieren,
Debugging. Das sind getrennte Arbeitsschritte, ob sie am Terminal gemacht
werden, oder auf Lochkarte.
Auf einem Microcomputer kann man "fliegend" programmieren, etwa in BASIC, mit
nicht mehr als ein paar Zetteln Papier, auf die man seine grundlegenden Ideen
geschrieben hat. Ein Bild, das einem Groß-EDV Experten die Haare
sträuben lassen würde. Warum? Es ist klar, daß mit einer
Compilersprache wie COBOL bei einer solchen Arbeitsweise nicht viel
herauskommen würde. Dehalb ist so eine Arbeitsweise auch verpönt.
Aber man hat in der Groß-EDV keine Programmiersprachen entwickelt, die
interaktives Programmieren maximal unterstützen.
Im Bereich der Microcompuer aber sind diese Entwicklungen im vollen Gange. Zwar
macht auch BASIC macht interaktives Programmieren nur möglich, aber es
unterstützt es nicht. Aber entsprechende Programmiersprachen beginnen sich
aber in der Micro-Szene zu entwickeln. Eine Sprache wie SMALLTALK zum Beispiel.
Ebenso Personal COBOL von Micro Focus, das nicht für Großcomputer
entwickelt wurde sondern für PCs. Mit solchen Sprachen können
Programme wesentlich schneller entwickelt werden, weil man die interaktiven
Möglichkeiten der PCs optimal ausnutzt. Hier bieten Microcomputer neue,
und andersartige Entwicklungen im Vergleich zur Groß-EDV. Ein System wie
Personal Cobol ließe sich recht leicht in eine Groß-EDV Umwelt
einfügen, aber Sprachen wie SMALLTALK weniger. Hier gibt es
beträchtliche Hindernisse der Kompatibilität. Andersartige Sprachen
führen zu andersartigen Lösungen:
Man kann daher wohl abwarten, bis die Benutzerkonzepte der Spiel-Software auf
die Mainframes überdiffundiert sind, bis Dokumentation auf intelligenten
Microcomputern in Form von relationalen Datenbanken abgespeichert ist, die nach
dem Query-System Auskunft geben, bis man sich in computerisierten
Einführungskursen mit Graphik und Animation über die Prinzipien der
System-Hardware und Software informieren kann, ohne die Notwendigkeit von 6
Wochen Herstellerseminar. Dem Kostenfaktor einer verbilligten Programmierung
kann sich wohl keiner entziehen. Standardprograme für PCs erlauben heute
viele Arbeiten, die bisher überhaupt nicht oder nur auf eine sehr stark
strukturierte Weise gemacht werden können. Die Entwicklung geht weiter. Es
ist zu erwarten, daß mit neuen Möglichkeiten auch andere
Arbeitsstrukturen in Betrieben entstehen werden. Strukturen, die die
Abhängigkeit von der zentralen Organisation eines Mainframe-Rechenzentrums
wesentlich verringern werden.