Diese Story entstand vor 15 Jahren
Die CMOS-Pyramide
Von Raimund Vollmer
»Es hat immer geheißen, die Gestirne sind an einem kristallenen Gewölbe angeheftet, dass sie nicht herunterfallen können. Jetzt haben wir Mut gefasst und lassen sie im Freien schweben, ohne Halt, und sie sind in großer Fahrt, gleich unseren Schiffen, ohne Halt und in großer Fahrt.«
Galileo Galilei in dem Schauspiel »Leben des Galilei« von Bertolt Brecht[1]
Tokio. Dienstag, 5. April 1994. Der wohl erste Landesfürst im Weltreich der IBM, der an diesem Tag den neuen Parallel Sysplex vorstellte, war Kakutaro Kitashiro, Präsident der IBM Japan. Und er nutzte natürlich den Zeitvorsprung, um die historische Wendemarke zu besetzen. »Seit der Entwicklung der ersten Mainframe‑Maschine der Welt, des Systems /360 vor 30 Jahren, ist dies heute die Ankündigung der innovativsten Produktfamilie«, erklärte er dem Publikum im zweitgrößten Mainframe‑Markt der Welt.[2] Und damit hatte er seinen Kunden suggeriert, dass die Neuentwicklung nun die nächsten 30 Jahre bestimmen würde.
So wurde jedenfalls die Botschaft aufgenommen. »Das Geschäft mit Mainframe‑Computer ist mit dem Aufkommen der Parallelrechner so gut wie beendet«, kommentierte Massahiko Ishino, Analyst beim japanischen Investmenthaus Yamaichi Research Institute of Securities & Economics.[3] Richtig. Aber das galt nur für das Innere der Rechner: die Prozessoren. Die Anwendungswelt kam ungeschoren davon.
Die rettende Initiative dazu, mit der dieses Wunderstück, die Gratwanderung zwischen neuer und alter Welt zu meistern sei, hat ihren Ursprung nicht in den High‑Tech‑Ländern Japan oder Amerika, sondern in Europa, präziser: in Deutschland, im Entwicklungslabor in Schönaich bei Böblingen. Es löste zuerst das Prozessor‑Dilemma und wies dann den Weg in die Parallelverarbeitung. Und so war dieser 5. April in erster Linie der Tag des Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH. Stolz konnte er in Deutschland verkünden: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Ende des Chipdilemmas. Das erste Problem, das er und seine Mannschaft lösten, war das Chip‑Dilemma. Das Zauberformel heißt CMOS/Complemtar Metall‑Oxyde Semiconductor). Es ist der Grundbaustein der Parallel‑Pyramide. Mit dieser Logik, die 1974 RCA erstmals im Bereich der Konsumentenelektronik verwendete, hatte die IBM 1986 nur Erfahrung im Bereich der massengefertigten Speicherchips. Das Labor in Schönaich, das damals für die Entwicklung des kleinen Mainframes IBM 9370 verantwortlich war, nutzte CMOS, um daraus erstmals einen Mikroprozessor zu zeugen, der /370‑kompatibel war. 1988 war das Problem gelöst. Die IBM 9370 wurde fortan mit diesem Prozessor bestückt.
Damit war ein gewaltiger Brückenschlag geglückt. Denn die bisherige Domäne der CMOS‑Welt war bis dahin der Desktop‑Markt gewesen, den sie mit äußerst preisgünstigen Prozessoren beglückte. Ja, sie waren es gewesen, die den Preis‑Leistungs‑Vergleich zwischen Mainframes und PCs ständig zugunsten der Desktops verschoben.
Die Entwicklungslabors in Poughkeepsie und Endicott sahen diesen Erfolg mit höchst gemischten Gefühlen. Hier hatte man die 9370 nie so richtig ernst genommen. Sie war der Lumpensammler in der Großrechnerwelt, der sich vornehmlich in exotischen Gefilden bewegte. Würde er als CMOS‑Ausleger nun in die Domänen der erwachsenen Mainframes vorstoßen, oder war er nichts anderes als eine Desktop‑/370?
Statt immer mehr Leistung in aufwendig zu entwickelnde Prozessor hineinzupressen, werden nun massengefertigte Mikroprozessoren dafür verwendet werden. Technisch bedeutet dies
- die Abkehr von energieintensiven bipolaren Chips (z.B. Emitter Coupled Logic)
- hin zu CMOS‑Halbleitern (Complementary Metal Oxide Semiconductor).
Vorstufen dieser Technologie wurden bereits in den frühen siebziger Jahren in Speicherbausteinen, den RAMs (Random Access Memories) verwendet. In den achtziger Jahren öffnete dann die CMOS‑Technologie das Tor zum Megabit‑Speicher. Mehr noch: sie eroberte das neue Feld der Hochleistungs‑Mikroprozessoren.
Was CMOS‑Chips auszeichnet, ist ihr im Vergleich zu den bipolaren Gegenstücken erheblich geringerer Energieverbrauch. Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH, berichtet, dass der Strombedarf um den »Faktor 10 niedriger ist« als in der bipolaren Welt, die mit ihren ECL‑Chips »gandenlos viel Energie verbraucht«. Den Vorteil der CMOS‑Technologie bekommen die Kunden in Heller & Pfennig zu spüren. Denn die »Stromrechnung ist ein wichtiger Teil der Systemkosten« (Kircher).
Packungsdichte. So können aber auch Schaltkreise auf engsten Raum gepackt werden, ohne dass die Gefahr einer Überhitzung besteht, der nur noch mit aufwendiger Wasserkühlung begegnet werden kann. Statt »10.000 oder 100.000 Transistorfunktionen« können in der CMOS‑Technologie Millionen zusammengepackt werden.
Entwicklungskosten. Obwohl der ECL basierende Einzelprozessor mit 60 MIPS mehr als doppelt so stark ist wie sein aus CMOS hergestelltes Gegenstück, schlägt dieser in puncto Wirtschaftlichkeit allemal seinen großen Bruder. Seine Entwicklung ist zehnmal preiswerter als bei ECL‑Auslegern.
Preis/Leistungs‑Verhältnis. Zudem kann das Preis‑Leistungsverhältnis bei ECL‑Chips pro Jahr nur um 15 Prozent gesteigert werden, bei den CMOS‑Ableger aber sind Sprünge von 40 Prozent drin ‑ nicht zuletzt dank Massenfertigung.
Leistungssprünge. Während sich bei ECL‑Rechnern die Leistung nur alle fünf Jahre verdoppelt, schaffen dies CMOS‑Computer alle zwei Jahre. So arbeitet Kircher bereits jetzt an dem CMOS‑Prozessor, der 1996 auf den Markt kommen wird.
Was dabei erstaunt, ist die Tatsache, dass diese Vorteile seit mehr als zehn Jahren bekannt sind. 1982 veröffentlichte die Marktforschung Strategic Inc. in London eine Studie, die voraussagte, dass spätestens gegen Ende unseres Jahrhundert 80 Prozent aller Chips auf CMOS basieren würden. Die Firmen müssten anfangen, im großen Stil ihre höchstintegrierte Schaltkreise nach diesem Verfahren zu entwickeln. Wer das nicht täte, würde Marktanteile verlieren.[4] Aber Firmen wie IBM glaubten, dass dies für alle anderen Märkte stimmen würde, nur nicht für Großrechner. Ein fataler Irrtum, der an die Vorzeit der /360 erinnert, als Gottkönig Watson Jr. mit einem Befehl durchsetzte, nur noch die Transistortechnik zu verwenden.
Natürlich ist es das Rechenprinzip der Parallelverarbeitung, dem die CMOS‑Generation es jetzt zu verdanken hat, dass sie mit einem geistigen Trick die Begrenzungen der Technik zu überwinden kann. Kurzum: sie nutzt den Hase‑Igel‑Effekt. Während in einem traditionellen Mainframe bis 1993 maximal zehn mächtige Prozessoren (ES/900‑9X2) kooperieren können, sind in den neuen Parallelrechner Dutzende von CPUs zu einer Einheit verknüpft. Aus den Einzelblöcken entsteht die CMOS‑Pyramide.
Neues Denken. Das hört sich simpel an. Man fragt sich: Warum entdeckte die kommerzielle DV die Parallelverarbeitung erst so spät? Der Hauptgrund liegt darin, dass sie auf der Softwareseite letztlich das Entstehen von radikal anderen Algorithmen erfordert. Das Programmierwissen hatte sich voll und ganz auf einer seriellen Sicht auf die Welt verschrieben. Das heißt: wollen die Anwendungsentwickler die Potentiale auch tatsächlich nutzen, müssen sie völlig umdenken. Dahinter steht ein Paradigmawechsel, der weitaus größer ist als IBMs Abschied in den sechziger Jahren von der Lochkarte (die damals intern und extern wahre Tumulte auslöste).
Die Ironie dabei: Die Programmierer müssen die Welt so sehen, wie sie sich heute in zunehmenden Maße (Schlagwort: Business Reengineering) organisiert ‑ in ihrer Gleichzeitigkeit. Das lässt sie zögern & zaudern, zumal sie beim Reengineering schon jetzt große Probleme haben. Sie entdecken, dass sie damit eine Pandora‑Büchse geöffnet haben. (Siehe Kasten: Voll erwischt)
Sollen sie dann auch noch das alles so umsetzen, dass die Möglichkeiten der Parallelverarbeitung voll nutzt, dann müssen sie mit noch mehr Überrschungen fertig werden. So werden 1994 im Markt der Parallelrechner gerade 600 Millionen Dollar weltweit umgesetzt, davon geht der Hauptteil in die technisch‑wissenschaftliche Welt. Im Vergleich dazu katapultierte sich zwischen 1962 und 1991 das stets hochprofitable Mainframe‑Geschäft von einer auf 30 Milliarden Dollar, um dann allerdings zu einer beispiellosen Talfahrt anzusetzen.[5]
Den Absturz auffangen und einen neuen Aufwärtstrend erzeugen ‑ so sieht die Aufgabe aus. Ist das überhaupt machbar?
Das Gesetz der Trägheit
Hürde & Bürde. Etwa 20 Jahre brauchte also die Idee des John von Neumann, bis sie sich kommerziell durchsetzte, und weitere 20 Jahre lang durfte sie ihren Erfolg voll auskosten. Heute stehen weltweit Anwendungsinvestitionen im Wert von 1.200 Milliarden Dollar hinter den Mainframes. Diese Hürde ist auch die Bürde: Nur eine alternative Technologie, die diesen immensen Aufwand an programmierten Unternehmenswissen in sich aufsaugen konnte, hat überhaupt eine Chance, in die Großrechner‑Phalanx einzubrechen. Und hier war lange Zeit weit & breit nichts zu sehen ‑ bis zu diesem 5. April 1994. Da verkündete Hug, dass der neue Parallel Sysplex »im hohen Umfang« kompatibel mit der Vergangenheit sei. Das heißt: der Anwendungsbestand, der allein hierzulande »einen Wert von 250 Milliarden Mark darstellt« (Hug), kann weitgehend übernommen werden.
Endlich scheint sich die Parallelverarbeitung eine Bahn zu brechen, ohne dabei sofort ein völlig neues Denken bei den Entwicklern zu erfordern. Damit wurde ein Signal gesetzt: »Das goldene Zeitalter der Mainframes, in dem große Rechner und IBM alles beherrschten, ist vorbei«. So lautete bereits im Februar 1993 das Urteil der New York Times, als einen Monat zuvor die ersten Gerüchte über den neuen »Superserver« in Umlauf kamen.[6] Ein gutes Jahr später konterte das amerikanische Nachrichtenmagazin Time: »Das Schwermetall wird weiter regieren.« Und weiter: »Die Dinosaurier sind weit davon entfernt, ausgelöscht zu werdenn.«[7]
Jetzt wurde deutlich: Seine Retter sind die Parallelrechner, die zugleich der letzte Abkömmling und der erste Systemüberwinder der /360‑Generation sind. Kircher, in dessen Verantwortungsbereich, dem Labor in Schönaich bei Böblingen, der Parallelrechner seine Geburtsstunde erlebte: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Jahrzehntelang hatte der grandiose Aufstieg der Mainframes die Idee der Parallelverarbeitung überdeckt. Die Technologie war schlichtweg noch nicht so weit, um den neuen Denkansatz in die Rechenzentren zu tragen.
Aber dann nahm die Technologie mit dem Aufkommen der Mikroprozessoren und der Speicherchips mächtig an Fahrt auf. Zu Beginn der achtziger Jahre war sie soweit, um auch von den Parallel‑Denkern ausgebeutet zu werden. Doch nach wie vor nahmen sich nur wenige Pionierfirmen des Themas an. IBM selbst hatte Mitte der achtziger Jahre einige dieser neuen Kolosse gebaut, aber nur für interne Zwecke ‑ zur Entwicklung von neuen Mainframes. In den Anwendungen der kommerziellen Datenverarbeitung war Parallelprocessing noch nicht einmal ein Randthema.
Invention & Innovation. Es gehört zur Geschichte der kaufmännischen DV, dass die Technologie zwar mit ihrem ungemein schnellen Wandel akzeptiert wird, dass aber neue geistige Prinzipien sich nur sehr langsam durchsetzen. Experten sprechen davon, dass hier der Zyklus von der Invention bis zur Innovation mindestens 20 Jahre beträgt. Durch keine Maßnahme lässt er sich verkürzen ‑ allenfalls verlängern. Was die Anwender immer wieder zurückschreckt, sind die enormen Kosten, die eine solche Transformation nicht nur in der Umstellung ihrer Softwarebestände erzeugt, sondern auch bei der Schulung.
Dieses Trägheitsgesetz wurde in der Computerbranche von der IBM mit der Ankündigung der /360 erstmals in einen überwältigenden wirtschaftlichen Erfolg umgesetzt. So wurde die /360 sukzessive verbessert. Aus ihr wurde 1970 die /370 und schließlich, 1990, die /390. Firmen wie Intel oder Microsoft waren es dann, die davon nicht minder profitieren sollten. Mit kapitalintensiven Verbesserungsinnovationen triumphieren sie über diejenigen, die wissensintensive Neuerungen induzieren wollen. Man braucht sich dazu nur die DOS‑basierende Desktopwelt anzuschauen.
Das Innovationspatt. Das Von‑Neumann‑Prinzip bescherte zum Beispiel der Mutter aller Mainframes, der IBM, fette Margen, die jeden Entwicklungsaufwand bei der Weiterentwicklung von Hardware und Software der bipolaren Großrechner rechtfertigten, aber nur zu einem Bruchteil Geld für wirkliche Novitäten freimachte. Schaut man sich die Neuerungen aus den sechziger Jahren, so sind jene Innovationen am wenigsten auf dem Großrechner realisiert, die dem Benutzer am nächsten kommen. Hier aber ist die Aktion. , dass»Was wir uns wünschen, ist, dass die Großrechner nun auch die PCs in ihren Wirkungskreis mit einbeziehen«, fordert ICR‑Manager Obst.
Gerade im Augenblick größter Erfolge scheuen Unternehmensführer davor, sich auf einen etwaigen Trendbruch einzustellen, ihn sogar selbst zu inszenieren. Im Verhältnis zwischen IBM und ihren Kunden entstand so eine Situation der gegenseitigen Gefangennahme.
Quellen
[1] Bertolt Brecht, Gesammelte Werke Band 3, Frankfurt 1967: »Das Leben des Galilei«, Seite 1234
[2] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[3] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[4] Financial Times, 22.7.1982, Elaine Williams: »Major restructuring in processing«
[5] Financial Times, 25.6.91, Della Bradshaw: »An eastern breeze in the Med«
[6] New York Times, 10.2.93, Steve Lohr: »Mainframes aren't dead at all«
[7] Time, 13.6.94, Michael Meyer: »Rethinking your mainframe«
3 Kommentare:
check over herelook at more info have a peek at this web-siteread this post here Get More Infoyou could try here
image source great post to read helpful resources investigate this site look at these guys Resources
This Site aaa replica bags more info here cheap designer bags replica company website Balenciaga Dolabuy
Kommentar veröffentlichen