Freitag, 10. April 2009

Die Mainframe-Ära 1994: Der Wechsel zu CMOS

Diese Story entstand vor 15 Jahren
Die CMOS-Pyramide
Von Raimund Vollmer

»Es hat immer geheißen, die Gestirne sind an einem kri­stal­­lenen Gewölbe angeheftet, dass sie nicht herunterfallen kön­nen. Jetzt haben wir Mut gefasst und lassen sie im Freien schweben, ohne Halt, und sie sind in großer Fahrt, gleich unseren Schiffen, ohne Halt und in großer Fahrt.«
Galileo Galilei in dem Schauspiel »Leben des Galilei« von Bertolt Brecht[1]

Tokio. Dienstag, 5. April 1994. Der wohl erste Landes­fürst im Weltreich der IBM, der an diesem Tag den neuen Pa­ral­lel Sysplex vorstellte, war Ka­­ku­taro Ki­ta­shiro, Präsident der IBM Japan. Und er nutzte natürlich den Zeitvorsprung, um die histo­rische Wendemarke zu be­setzen. »Seit der Ent­wick­lung der ersten Main­fra­me‑Maschine der Welt, des Systems /360 vor 30 Jahren, ist dies heute die An­kün­di­gung der innovativsten Pro­dukt­familie«, er­klärte er dem Publikum im zweitgrößten Mainframe‑Markt der Welt.[2] Und damit hatte er seinen Kunden sugge­riert, dass die Neu­ent­wicklung nun die nächsten 30 Jahre bestimmen würde.
So wurde jedenfalls die Botschaft aufgenommen. »Das Ge­schäft mit Mainframe‑Computer ist mit dem Aufkommen der Pa­ral­­lel­rechner so gut wie beendet«, kommentierte Massahiko Ishi­no, Analyst beim japa­ni­schen Investmenthaus Yamaichi Re­search Institute of Securities & Economics.[3] Richtig. Aber das galt nur für das Innere der Rechner: die Pro­zes­so­­ren. Die Anwendungswelt kam ungeschoren davon.
Die rettende Initiative dazu, mit der dieses Wunderstück, die Grat­wan­derung zwischen neuer und alter Welt zu meistern sei, hat ihren Ursprung nicht in den High‑Tech‑Ländern Japan oder Amerika, sondern in Europa, präziser: in Deutschland, im Entwicklungs­labor in Schönaich bei Böblingen. Es löste zuerst das Prozessor‑Dilemma und wies dann den Weg in die Parallelverarbeitung. Und so war die­ser 5. April in erster Linie der Tag des Herbert Kir­cher, Chef der IBM Deutschland Ent­wick­lungs­systeme GmbH. Stolz konnte er in Deutschland verkünden: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Ende des Chipdilemmas. Das erste Problem, das er und seine Mann­schaft lösten, war das Chip‑Dilemma. Das Zauberformel heißt CMOS/Complemtar Metall‑Oxyde Semiconductor). Es ist der Grundbaustein der Parallel‑Pyramide. Mit dieser Logik, die 1974 RCA erstmals im Bereich der Konsumentenelektronik ver­wen­de­te, hatte die IBM 1986 nur Erfahrung im Bereich der massengefertigten Spei­cherchips. Das Labor in Schönaich, das damals für die Entwicklung des kleinen Mainframes IBM 9370 verantwortlich war, nutzte CMOS, um daraus erstmals einen Mikroprozessor zu zeugen, der /370‑kom­pa­tibel war. 1988 war das Problem gelöst. Die IBM 9370 wurde fortan mit diesem Prozessor bestückt.
Damit war ein gewaltiger Brückenschlag geglückt. Denn die bis­heri­ge Domäne der CMOS‑Welt war bis dahin der Desktop‑Markt gewe­sen, den sie mit äußerst preisgünstigen Prozessoren beglückte. Ja, sie waren es gewesen, die den Preis‑Leistungs‑Vergleich zwi­schen Mainframes und PCs ständig zugunsten der Desk­tops verschoben.
Die Entwicklungslabors in Poughkeepsie und Endicott sahen diesen Erfolg mit höchst ge­mischten Gefühlen. Hier hatte man die 9370 nie so richtig ernst ge­nom­men. Sie war der Lumpensammler in der Groß­rech­nerwelt, der sich vornehmlich in exotischen Gefilden bewegte. Würde er als CMOS‑Aus­leger nun in die Domänen der erwach­se­nen Main­frames vorstoßen, oder war er nichts anderes als eine Desktop‑/370?
Statt immer mehr Leistung in auf­wen­dig zu ent­­wickelnde Prozessor hin­einzupressen, werden nun massen­gefertigte Mi­­kro­­pro­zessoren dafür verwendet werden. Technisch be­deutet dies
- die Abkehr von energieintensiven bipolaren Chips (z.B. Emitter Coupled Logic)
- hin zu CMOS‑Halbleitern (Complementary Metal Oxide Semiconductor).
Vorstufen dieser Technologie wurden bereits in den frühen siebziger Jahren in Speicherbausteinen, den RAMs (Random Access Memories) verwendet. In den achtziger Jahren öffnete dann die CMOS‑Techno­logie das Tor zum Megabit‑Speicher. Mehr noch: sie eroberte das neue Feld der Hochleistungs‑Mikroprozessoren.
Was CMOS‑Chips auszeichnet, ist ihr im Vergleich zu den bipolaren Ge­gen­stücken erheblich geringerer Energieverbrauch. Herbert Kir­cher, Chef der IBM Deutschland Ent­wick­lungssysteme GmbH, berichtet, dass der Strombedarf um den »Faktor 10 niedriger ist« als in der bipolaren Welt, die mit ihren ECL‑Chips »gandenlos viel Energie ver­braucht«. Den Vorteil der CMOS‑Technologie bekommen die Kunden in Heller & Pfennig zu spüren. Denn die »Stromrechnung ist ein wichtiger Teil der Systemkosten« (Kircher).
Packungsdichte. So können aber auch Schalt­kreise auf engsten Raum gepackt werden, ohne dass die Gefahr einer Über­hitzung besteht, der nur noch mit auf­wendiger Wasserkühlung begegnet werden kann. Statt »10.000 oder 100.000 Transistorfunktio­nen« können in der CMOS‑Technologie Mil­lionen zusammengepackt werden.
Entwicklungskosten. Obwohl der ECL basierende Einzel­prozessor mit 60 MIPS mehr als doppelt so stark ist wie sein aus CMOS hergestelltes Gegen­stück, schlägt dieser in puncto Wirt­schaft­lichkeit alle­mal seinen großen Bruder. Seine Entwicklung ist zehn­mal preiswerter als bei ECL‑Auslegern.
Preis/Leistungs‑Verhältnis. Zudem kann das Preis‑Lei­stungs­ver­hält­nis bei ECL‑Chips pro Jahr nur um 15 Prozent ge­steigert werden, bei den CMOS‑Ableger aber sind Sprünge von 40 Prozent drin ‑ nicht zuletzt dank Massen­fertigung.
Leistungssprünge. Während sich bei ECL‑Rechnern die Leistung nur alle fünf Jahre verdoppelt, schaffen dies CMOS‑Computer alle zwei Jahre. So arbeitet Kircher be­reits jetzt an dem CMOS‑Prozessor, der 1996 auf den Markt kommen wird.
Was dabei erstaunt, ist die Tatsache, dass diese Vorteile seit mehr als zehn Jahren bekannt sind. 1982 veröffentlichte die Markt­for­schung Strategic Inc. in London eine Studie, die voraussagte, dass spätestens gegen Ende unseres Jahrhundert 80 Prozent aller Chips auf CMOS basieren würden. Die Fir­men müssten anfangen, im großen Stil ihre höchstinte­grier­te Schaltkreise nach diesem Ver­fah­ren zu entwickeln. Wer das nicht täte, würde Marktanteile ver­lie­ren.[4] Aber Firmen wie IBM glaubten, dass dies für alle an­de­ren Märkte stimmen würde, nur nicht für Großrechner. Ein fa­ta­ler Irr­tum, der an die Vorzeit der /360 erinnert, als Gottkönig Watson Jr. mit einem Befehl durchsetzte, nur noch die Transistor­tech­nik zu verwenden.
Natürlich ist es das Rechenprinzip der Paral­lelverarbeitung, dem die CMOS‑Gene­ration es jetzt zu verdanken hat, dass sie mit einem geistigen Trick die Be­gren­zungen der Technik zu über­win­den kann. Kurzum: sie nutzt den Hase‑Igel‑Effekt. Während in einem tradi­tio­nellen Mainframe bis 1993 maximal zehn mächtige Prozessoren (ES/900‑9X2) kooperieren können, sind in den neuen Paral­lelrechner Dutzende von CPUs zu einer Einheit ver­­knüpft. Aus den Ein­zel­blöcken entsteht die CMOS‑Pyramide.
Neues Denken. Das hört sich simpel an. Man fragt sich: Warum ent­deckte die kom­mer­zielle DV die Parallelverarbeitung erst so spät? Der Hauptgrund liegt darin, dass sie auf der Softwareseite letzt­lich das Entstehen von ra­di­kal an­de­ren Algo­rith­men erfordert. Das Pro­gram­­mierwissen hatte sich voll und ganz auf einer seriellen Sicht auf die Welt verschrieben. Das heißt: wollen die Anwen­dungs­ent­wickler die Po­ten­­tiale auch tatsächlich nutzen, müssen sie völlig umdenken. Dahinter steht ein Paradigmawechsel, der weitaus größer ist als IBMs Ab­schied in den sechziger Jahren von der Lochkarte (die damals intern und extern wahre Tumulte auslöste).
Die Ironie da­bei: Die Program­mierer müssen die Welt so sehen, wie sie sich heute in zunehmenden Maße (Schlagwort: Business Reengi­neering) organisiert ‑ in ihrer Gleich­zei­tig­keit. Das lässt sie zögern & zaudern, zumal sie beim Reengineering schon jetzt große Pro­bleme haben. Sie entdecken, dass sie damit eine Pandora‑Büchse geöffnet haben. (Siehe Kasten: Voll erwischt)
Sollen sie dann auch noch das alles so umsetzen, dass die Möglichkeiten der Parallelverarbeitung voll nutzt, dann müssen sie mit noch mehr Überrschungen fertig werden. So werden 1994 im Markt der Parallel­rechner gerade 600 Millionen Dol­­lar weltweit um­gesetzt, davon geht der Hauptteil in die technisch‑wissenschaftliche Welt. Im Ver­gleich da­zu kata­pul­tierte sich zwi­schen 1962 und 1991 das stets hochprofitable Mainframe‑Geschäft von ei­ner auf 30 Milliarden Dollar, um dann allerdings zu einer beispiellosen Talfahrt anzusetzen.[5]
Den Absturz auffangen und einen neuen Aufwärtstrend erzeugen ‑ so sieht die Aufgabe aus. Ist das überhaupt machbar?
Das Gesetz der Trägheit
Hürde & Bürde. Etwa 20 Jahre brauchte also die Idee des John von Neumann, bis sie sich kommerziell durchsetzte, und weitere 20 Jahre lang durfte sie ihren Erfolg voll auskosten. Heute stehen weltweit Anwendungsinve­sti­tionen im Wert von 1.200 Milliarden Dollar hinter den Mainfra­mes. Diese Hürde ist auch die Bürde: Nur eine alternative Technologie, die diesen immensen Auf­wand an pro­gram­mierten Unternehmenswissen in sich aufsaugen konnte, hat überhaupt eine Chance, in die Groß­rech­ner‑Phalanx einzubrechen. Und hier war lange Zeit weit & breit nichts zu sehen ‑ bis zu diesem 5. April 1994. Da verkündete Hug, dass der neue Parallel Sysplex »im hohen Umfang« kompatibel mit der Vergangenheit sei. Das heißt: der An­wen­dungsbestand, der allein hierzulande »einen Wert von 250 Mil­liar­den Mark darstellt« (Hug), kann weitgehend übernommen werden.
Endlich scheint sich die Paral­lel­ver­arbeitung eine Bahn zu brechen, ohne dabei sofort ein völlig neues Denken bei den Entwicklern zu erfordern. Damit wurde ein Signal ge­setzt: »Das goldene Zeitalter der Mainframes, in dem große Rechner und IBM alles beherrschten, ist vorbei«. So lautete bereits im Fe­bruar 1993 das Urteil der New York Times, als einen Monat zuvor die ersten Gerüchte über den neuen »Superserver« in Umlauf kamen.[6] Ein gutes Jahr später kon­terte das ame­ri­ka­nische Nachrichtenmagazin Time: »Das Schwer­metall wird weiter regieren.« Und weiter: »Die Dinosaurier sind weit davon entfernt, ausgelöscht zu werdenn.«[7]
Jetzt wurde deutlich: Seine Retter sind die Paral­lelrech­ner, die zugleich der letzte Abkömmling und der erste Systemüber­win­der der /360‑Generation sind. Kircher, in dessen Verantwortungsbereich, dem Labor in Schönaich bei Böblingen, der Parallelrechner seine Geburtsstunde erlebte: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Jahrzehntelang hatte der grandiose Aufstieg der Mainframes die Idee der Parallelverarbeitung überdeckt. Die Technologie war schlichtweg noch nicht so weit, um den neuen Denkansatz in die Rechenzentren zu tragen.
Aber dann nahm die Technologie mit dem Aufkommen der Mikro­pro­zes­soren und der Speicherchips mäch­tig an Fahrt auf. Zu Beginn der achtziger Jahre war sie soweit, um auch von den Parallel‑Denkern ausgebeutet zu werden. Doch nach wie vor nahmen sich nur wenige Pionier­fir­men des Themas an. IBM selbst hatte Mitte der achtziger Jahre einige dieser neuen Kolosse gebaut, aber nur für interne Zwecke ‑ zur Entwicklung von neuen Mainframes. In den Anwendungen der kommerziellen Daten­ver­arbeitung war Parallelprocessing noch nicht einmal ein Randthe­ma.
Invention & Innovation. Es gehört zur Geschichte der kaufmännischen DV, dass die Technologie zwar mit ihrem ungemein schnellen Wandel akzeptiert wird, dass aber neue geistige Prinzipien sich nur sehr langsam durchsetzen. Ex­per­ten sprechen da­von, dass hier der Zyklus von der Invention bis zur Innovation min­destens 20 Jahre beträgt. Durch keine Maß­nahme lässt er sich ver­­kürzen ‑ allenfalls verlängern. Was die Anwender immer wieder zurückschreckt, sind die enormen Kosten, die eine solche Transformation nicht nur in der Umstellung ihrer Softwarebestände erzeugt, sondern auch bei der Schulung.
Dieses Trägheitsgesetz wurde in der Computerbranche von der IBM mit der Ankündigung der /360 erst­mals in einen überwältigenden wirt­schaft­lichen Erfolg umgesetzt. So wurde die /360 sukzessive verbessert. Aus ihr wurde 1970 die /370 und schließlich, 1990, die /390. Firmen wie Intel oder Microsoft waren es dann, die davon nicht minder profitieren soll­ten. Mit kapitalintensiven Verbesserungsinnovationen triumphieren sie über die­jenigen, die wissens­intensive Neuerungen induzieren wollen. Man braucht sich dazu nur die DOS‑basierende Desktopwelt anzuschauen.
Das Innovationspatt. Das Von‑Neu­mann‑Prinzip bescherte zum Beispiel der Mutter aller Mainframes, der IBM, fette Margen, die jeden Entwicklungsaufwand bei der Wei­terentwicklung von Hardware und Software der bipola­ren Großrechner rechtfertigten, aber nur zu einem Bruchteil Geld für wirkliche Novitäten freimachte. Schaut man sich die Neuerungen aus den sechziger Jahren, so sind jene Innovationen am wenigsten auf dem Großrechner realisiert, die dem Benutzer am nächsten kommen. Hier aber ist die Aktion. , dass»Was wir uns wünschen, ist, dass die Großrechner nun auch die PCs in ihren Wirkungskreis mit einbeziehen«, fordert ICR‑Manager Obst.
Gerade im Augenblick größter Er­fol­ge scheuen Unternehmensführer davor, sich auf einen etwaigen Trend­bruch einzustellen, ihn sogar selbst zu inszenieren. Im Verhältnis zwischen IBM und ihren Kunden entstand so eine Situation der gegenseitigen Gefangennahme.

Quellen
[1] Bertolt Brecht, Gesammelte Werke Band 3, Frankfurt 1967: »Das Leben des Galilei«, Seite 1234
[2] Nikkei Weekly, 11.3.94: »Paral­lel‑processors put IBM ahead of the game«
[3] Nikkei Weekly, 11.3.94: »Paral­lel‑pro­cessors put IBM ahead of the game«
[4] Financial Times, 22.7.1982, Elaine Williams: »Major restructuring in processing«
[5] Financial Times, 25.6.91, Della Bradshaw: »An eastern breeze in the Med«
[6] New York Times, 10.2.93, Steve Lohr: »Mainframes aren't dead at all«
[7] Time, 13.6.94, Michael Meyer: »Rethinking your mainframe«

Keine Kommentare: