IBM kündigt neue Produkte und Services für dynamische IT-Infrastrukturen an
Anwender investieren in stärker automatisierte Betriebskonzepte zur Reduktion von Kosten und Risiken und zur Verbesserung der Servicequalität
Armonk, N.Y., USA und Stuttgart, 28. April 2009: IBM (NYSE: IBM) hat heute eine Reihe wichtiger neuer Produkte und Services vorgestellt, die IT-Infrastrukturen anpassungsfähiger und flexibler machen. Unternehmen erhalten damit die Möglichkeit, ihre Betriebskosten und Risiken zu senken sowie die Qualität von IT-Services weiter zu erhöhen. Gleichzeitig wurden eine Reihe internationaler Referenzkunden vorgestellt, die beispielhaft ihre Betriebskonzepte dynamisiert haben. Im Ergebnis können Kunden auf Veränderungen externer Faktoren und betrieblicher Belange schneller reagieren und ihre IT auf Herausforderungen einer global vernetzten Welt besser anpassen. Die heutige Ankündigung unterstützt Anwender dabei, die laufend steigende Komplexität in der betrieblichen Infrastruktur, bedingt durch den Zuwachs an zu integrierenden Komponenten und die steigende Anzahl an intelligenten Sensoren und Meßpunkten, im Griff zu behalten. Mehr noch, es lassen sich daraus zunehmend entscheidende Betriebsinformationen zum Vorteil eines Unternehmens ableiten.
IDC schätzt die Marktchance für Software, Server, Technologien und Services zum Betrieb einer immer mehr zusammenwachsenden IT- und Real-Infrastruktur verschiedenster Bereiche in der Welt (wie Verkehr, Versorgung, Produktion) auf bis zu 122 Milliarden Dollar im Jahr 2012.
"Wir bereiten unsere Kunden auf die Anforderungen der Zukunft an eine moderne IT-Infrastruktur vor", sagt Prof. Dr. Gunter Dueck, Cheftechnologe und Business Leader Dynamic Infrastructure, IBM Deutschland, "dabei liegt der Fokus auf dem Erreichen schneller, echter Geschäftsvorteile und der Auswahl der dafür richtigen Investitionen."
Ein Beispiel: So überwacht die Baader Bank AG, eine der größeren Wertpapierhandelsbanken in Deutschland, die gesamte Infrastruktur vom Netzwerk über die Server bis hin zu den Kernapplikationen mit IBM Tivoli Software und verarbeitet über 2 Millionen gemeldete Events pro Tag. Durch schnellere und bessere Fehlermeldungen und die Reduzierung von auflaufenden Meldungen kann die Baader Bank signifikante Verbesserung in puncto Produktivität, Zeitersparnis und Sicherheit verzeichnen und flexibel auf Anforderungen reagieren.
IBM kündigt heute eine große Anzahl neuer Produkte und Services an, um Kunden insgesamt dabei zu unterstützen, dynamische Infrastrukturen aufzubauen. Die neuen Lösungen adressieren dabei sowohl Groß- als auch mittelständische Unternehmen.
Dabei geht es vor allem um folgende Teilbereiche:
- Die Integration digitaler und physischer Infrastrukturen, die die Möglichkeit bieten, mittels Informationstechnologie Geschäftsprozesse und eine zunehmend intelligentere physische Infrastruktur zu verwalten und so neue und verbesserte Services zu betreiben .
- Die Fähigkeit, die 15 Petabyte an Informationen - acht mal mehr Informationen als in allen Bibliotheken in den USA zusammen - , die die Welt täglich neu hervorbringt, zu verwalten, zu speichern und zu analysieren. Dies ermöglicht es Kunden, mit den gestiegenen Anforderungen an Informationsmanagement wie rechtlichen Regelungen, Compliance, Verfügbarkeit, Datenvorhaltung, Risikomanagement und Sicherheit umzugehen.
- Eine Reduktion von Ineffizienzen und eine größere Flexibilität in der heutigen vernetzten und instrumentalisierten Welt. So haben sich zum Beispiel die Rechenzentrumskosten für Energie, Raum etc. seit 1996 verachtfacht. Die durchschnittliche Serverauslastung beträgt dagegen nur 6 bis 15 Prozent.
Ein Teil der heute vorgestellten Produkte und Services wurde auch unter Mitwirkung des deutschen IBM Entwicklungs- und Forschungslabors in Böblingen vorbereitet. Mittlerweile haben auch die ersten IBM Business Partner sich im Rahmen der Dynamic Infrastructure-Initiative ausgebildet. So wurde das Unternehmen FRITZ & MACZIOL von IBM als erster Partner in Europa zum Thema "Dynamic Infrastructure" zertifiziert.
- Seit der Vorstellung des Dynamic Infrastructure-Konzepts von IBM im Februar 2009 haben sich bereits mehr als 5000 Kunden weltweit bei über 100 Veranstaltungen in 23 Ländern über die Möglichkeiten dieses Ansatzes im Hinblick auf die Anforderungen an künftige IT-Infrastrukturen informieren lassen.
- Über 100 Veranstaltungen wurden weltweit auch in den IBM Business Partner Centern für Kunden durchgeführt. Dynamische Infrastrukturen können die IT-Kosten verringern, Risiken reduzieren und die globale Integration fördern.
Cloud Computing ist ein zentrales Konzept für diese Form von Optimierung. Mit der "Erfahrungswelt der IT-Transformation" bietet IBM Kunden auf Basis eines neuen interaktiven und dialogorientierten Workshops den Einstieg und entwickelt mit den Teilnehmern eine Roadmap zur eigenen IT-Transformation.Die neuen Produkte und Services zum Betriebskonzept einer dynamischen Infrastruktur umfassen:
- Einen neuen Beratungsservice - die IT-Optimierungs-Business-Value-Roadmap - um Kunden mit multiplen IT-Projekten dabei zu unterstützen, in der gegenwärtigen wirtschaftlichen Situationen Projektprioritäten zu überprüfen und Ressourcen besser einteilen zu können. Dieser Service kann Kunden dabei helfen, einen Optimierungsplan aufzusetzen, der bis zu 40 Prozent an Kosten einsparen kann, und künftige IT-Projekte auf Schlüssel-Geschäftsprioritäten fokussiert. Zusätzlich können mit der IBM Going Green Impact Analyse die effektivsten Lösungen für die Steigerung der Energieeffizienz und Senkung der Gesamtbetriebskosten (TCO) eines Rechenzentrums identifiziert und priorisiert werden. Nach Umsetzung erforderlicher Maßnahmen bietet IBM gemeinsam mit TÜV Rheinland oder der DEKRA eine Energieeffizienz-Zertifizierung des Rechenzentrums an.
- Zwei neue IBM System x Appliances für System- und Anwendungsmonitoring und Servicerequest-Verwaltung. - Das IBM Service-Management-Center für Cloud-Computing, das jetzt IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security und IBM Tivoli Security Management für z/OS umfasst. Die übergreifende IBM Lösung stellt die notwendigen Werkzeuge und Verfahren bereit, mit denen der Lebenszyklus von Cloud-Services von der Servicedefinition bis zur Beendigung des Service verwaltet werden kann. Das IBM Service Management Center unterstützt sowohl die Bereitstellung virtueller Ressourcen als auch die Optimierung virtueller Operationen.
- Die neue Software IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security sowie IBM Tivoli Security Management für z/OS ergänzen das IBM Service Management Center for Cloud Computing, eine Zusammenstellung von Ressourcen, um Cloud-Umgebungen zu verwalten.
- Die neue Software IBM Telelogic System Architect ermöglicht es Organisationen, die Auswirkungen des Einsatzes einer Cloud-Umgebung zu visualisieren und zu verstehen. Sie bietet einen Prozessablauf für die Entwicklung von Software-Komponenten, die sich an der Cloud-Strategie ausrichten. Zusätzlich unterstützt die Integration von Telelogic Focal Point die IT-Verantwortlichen dabei, das Feedback von Anwendern im Unternehmen zu sammeln, um strategische Entscheidungen zu erleichtern, Aktivitäten zu gewichten und Projektpläne für den Einsatz von Cloud Computing mit größtmöglicher Wertschöpfung zu entwickeln.
- Der neue IBM Tivoli Foundations Application Manager und der IBM Foundations Service Manager stellen Angebote für System- und Application-Monitoring sowie Service-Request-Managemet bereit, die auf einer Out-of-the-box-System x-Appliance basieren. Die Sichtbarkeit, Kontrolle und Automatisierung, die der Tivoli Foundations Application Manager und der Tivoli Foundations Service Manager ermöglichen, eignen sich besonders für kleine und mittlere Unternehmen, die Kosten reduzieren, Risiken managen und ihre Servicequalität verbessern möchten.Neue Infrastrukturangebote, die Kunden bei Kosteneinsparungen und höherer Energieeffizienz unterstützen sollen:
- Ein neues IBM Business Partner-Programm - Ready for Energy and Environment, das Partnerlösungen, die Kunden bei Energieeffizienz und Kosteneinsparungen helfen sollen, zertifiziert. - Die POWER6+ Mikroprozessor-Technologie bietet gegenüber früheren Systemen eine Leistungssteigerung um bis zu 10 Prozent und kann den Energieverbrauch um bis zu 30 Prozent senken. In POWER6+ sind Features enthalten, die Software-Anwendungen verlässlicher machen und Ausfällen vorbeugen können.
- Die neuen Blade-Server BladeCenter JS23 und JS43 Express sind POWER6+
-Blades für 64-bit-Anwendungen auf IBM i-, AIX- oder Linux-Betriebssystemen. Durch den Einsatz von POWER6+ liefern sie Leistungsverbesserungen von bis zu 20 Prozent gegenüber früheren Versionen.
- Die neuen IBM Power 520 und 550 Express-Server mit POWER6+ Prozessoren (bis zu 5 GHz), die Kunden eine Flächeneinsparung im Serverbetrieb von bis zu 92 Prozent durch Konsolidierung ermöglichen.
- Eine branchenweit erstmalig vorgestellte Virtualisierungssoftware-Eigenschaft
- IBM PowerVM Active Memory Sharing, die es ermöglicht, Hauptspeicher automatisch von einem virtuellen Server oder einen logischen Partition zum nächsten zu verschieben
- für erhöhte Auslastung und Flexibilität bei der Nutzung von Hauptspeicher. Mit dieser Software kann Hauptspeicher gepooled und an fluktuierende Arbeitslasten angepasst werden.
- Zwei neue System x-Server mit der aktuellen x86-Technologie und der vierten Generation der IBM X-Architektur: Die 2-Sockel-Tower-Server x3400 M2 und x3500 M2.
Die Systeme verfügen über neue Wärmeableitungsdesigns, neue Spannungsregler und eine höhere Integration auf der Platine, um die Stromversorgung zu verbessern und Verteilungsverluste zu vermindern. Dabei wird im Vergleich zu Vorgängersystemen eine Energieeffizienz von mehr als 92 Prozent erreicht und eine annähernd sechzigprozentige Reduktion im Stromverbrauch, wenn die Systeme nicht ausgelastet sind bzw. um bis zu fünfundzwanzig Prozent, wenn die Systeme voll ausgelastet sind. Weitere neue Technologien in den Systemen umfassen System-Management-Tools wie das Integrated Management Module, das Unified Extensible Firmware Interface (UEFI) sowie Systems Director and Tools Center, die Kunden dabei unterstützt, virtuelle Infrastrukturen mit weniger Hardware aufzubauen. Kunden können eine 11:1-Konsolidierung erreichen, wenn sie von x86-Servern der Generation aus dem Jahr 2005 auf IBM HS22-Blades migrieren; beim Übergang auf x3650 M2-Server lässt sich eine geschätzte 9:1-Konsolidierung erreichen.
- Neu vorgestellt wurde auch ein überarbeiteter IBM Cluster 1350, eine vollintegrierte Lösung für den HPC-Bereich, der die Strom- und Kühlkosten um bis zu fünfzig Prozent senken konnte.
- Die neuen Software-Angebote IBM Tivoli Monitoring for Energy Management und Tivoli Business Service Manager ermöglichen es Kunden, Daten aus intelligenten Sensoren und anderen Quellen zu ziehen, um durch die Erfassung des Energieverbrauchs von IT und Facility-Ressourcen den Energiebedarf im gesamten Unternehmen und in der IT-Infrastruktur zu verwalten.Neue Angebote zur Verwaltung, Analyse, Speicherung und Sicherung ständig steigender Informationsmengen:- Eine neue Risikomanagement- und Business-Intelligence-Software für System z-Mainframes: Der ACI Proactive Risk Manager (PRM) für System z wurde dafür entwickelt, Betrugsversuchsseinschätzungen bei hohen Transaktionsraten im Kreditkartengeschäft vorzunehmen, wenn es um die Frage geht, ob im Rahmen eines Autorisierungsprozesses eine Transaktion genehmigt oder gestoppt wird. - Eine neue Version des IBM System Storage DS5000, die selbstverschlüsselnde Plattentechnologie für Midmarket-Kunden enthält. Damit werden Daten automatisch gegen nichtautorisierten Zugriff geschützt. Die Lösung unterstützt Kunden so bei der Erfüllung regulatorischer Auflagen. Weitere Verbesserungen umfassen schnellere 8-Gbps-Adapter sowie eine erhöhte Kapazität von bis zu 448 Plattenlaufwerken in einem einzigen System.- IBM Cognos 8 Business Intelligence für Linux auf System z stellt einen schnellen Zugang zu den aktuellsten Geschäftsinformationen von praktisch jedem Ort bereit und unterstützt Handheld-Geräte wie BlackBerries.- Die neue Entwicklungssoftware IBM Rational AppScan On Demand unterstützt Unternehmen dabei, Risiken zu minimieren, indem sie sicherstellt, dass Web-Anwendungen in der Cloud sicher und compliant sind und mit den Geschäftsgrundsätzen übereinstimmen. Sie trägt Sorge dafür, dass Anwendungen frei von Viren, Würmern, Trojanern und anderen Arten von Schadsoftware sind, die immer ausgeklügelter werden.
- Eine neue Version des Tivoli Storage Productivity Center stellt neue Performance-Analyse-Werkzeuge und individuelle Zuschnittsmöglichkeiten bereit, die IT-Administratoren in die Lage versetzen können, sehr große Speicherumgebungen verwalten zu können.Gleichzeitig läßt sich dabei die Systemleistung insgesamt verbessern, die Komplexität vermindern und die Verfügbarkeit erhöhen. Die neue Analysetechnologie hilft bei der Feststellung von Hot Spots für eine bessere Problembestimmung und schnellem Tuning um die Storage-Auslastung zu optimieren. Die Software bietet darüber hinaus erweiterten heterogenen Plattform-Support sowie Sicherheitsmerkmale für Multi-Vendor-Speicherumgebungen.
Neue Networking-Angebote-
IBM hat heute neu Hardware, Software und Services vorgestellt, um die Netzwerk-Konnektivität im Rahmen größerer Infrastruktureffizienz zu verbessern. Auf Basis der langjährigen Erfahrung im Networking stellt IBM dabei ein neues Serviceangebot vor: die IBM Networking, Strategy, Optimization and Implementation Services für Konsolidierung und Virtualisierung- Als Teil der heutigen Ankündigung erweitert IBM auch die Auswahlmöglichkeit für Netzwerkkonnektivität. Dabei wird die OEM-Vereinbarung mit Brocade erweitert zur Vorstellung einer neuen Familie von Ethernet-Switches und Routern mit IBM Logo. Diese ergänzen die gegenwärtigen Angebote. IBM hat darüber die Zusammenarbeit mit Juniper ausgeweitet. Im Februar haben beide Unternehmen hybride Public-Private-Cloud-Möglichkeiten vorgeführt. Als Teil der heutigen Ankündigung hat IBM auch neue Finanzierungsoptionen vorgestellt, um die Beschaffung von Produkten und Services aus dem Dynamic Infrastructure-Portfolio zu erleichtern.
Weitere Informationen: www.ibm.com/dynamicinfrastructure
Mittwoch, 29. April 2009
Montag, 13. April 2009
Die 5.000.000.000-Dollar-Wette (Part 3)
Die Väter der /360: Gene Amdahl, Frederic Brooks, Gerrit Blaauw
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Die Blaauw‑Pause
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie
WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie
WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«
Sonntag, 12. April 2009
Die 5.000.000.000-Dollar-Wette (Part 2)
Größer als das Manhattan-Project
Um die Größe und Grandiosität dieser Ankündigung zu verstehen, muß man die Hintergründe durchleuchten, die zu diesem spektakulären Ereignis führten. Warum zum Beispiel hatten sich damals, im Januar 1961, bei der Sitzung des Topmanagements, die Technologen durchsetzen können? Wieso hatte das Topmanagement seine Zustimmung zu einem Projekt erteilt, bei dem die Firma ihre gesamte Existenz aufs Spiel setzte? Antwort: IBM befand sich in einem technologischen Rückstand. Ihre Produktlinien waren zur Jahreswende 1961/62 ausgereizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachstumsraten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachstum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Lichtblick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das genug für eine Firma, die zuvor alle vier Jahre ihre Umsätze verdoppelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorgsam gehüteten Marktanteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Corporation of America oder Honeywell traten auf, während sich die alten Kontrahenten durch Aufkäufe vergrößerten. Mehr noch: die Konkurrenz begann, das Geschäft mit kompatiblen Rechnern zu entdecken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Vergangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Calculator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnettrommel als Hauptspeicher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avantgarde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Monatsmiete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerechnet, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnettrommeln zu vermieten. Ein Vermögen würde indes die Gesellschaft erwirtschaften, wenn sie gar 250 Maschinen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurückgezogen wurde, waren mehrere Tausend dieser Rechner verkauft worden. So wurde diese primitive Maschine der erste massenproduzierte Rechner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Transistorrechner Univac 80 genau gegen diesen Magnettrommelrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel abzeichnete, die Wettbewerber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus diesem Dilemma befreien ‑ und sich diesmal an die Spitze der Revolution stellen. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu lassen, bestand darin, viel Geld anzufassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von Innovationen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vice President T. Vincent (Vin) Learson seinen Chef nachdrücklich aufmerksam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilemma befreien. Watson spürte selbst »den Druck des Marktes«. Er ahnte, dass er alles auf eine Karte setzen musste. Die Lage war brenzlig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Superlativen gefeiert wurde. »Es war die größte industrielle Investition, die jemals in der Industriegeschichte von einem Privatunternehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Serie fünf Milliarden Dollar auf. Das entsprach 1966 den gesamten Einnahmen aller Computerhersteller der Welt«, staunte 1970 der Spiegel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lücke«.[3] In der Tat ‑ rund 4,5 Milliarden Dollar Kapitalinvestitionen für Fabriken, Ausrüstung und Mietmaschinen hatte IBM im Umfeld der /360‑Ankündigung aufgebracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Entwicklung. Zum Vergleich: Für ENIAC, für den ersten praxiserprobten Röhrenrechner der USA, waren bis zu seiner Inbetriebnahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar geflossen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Entwicklung des Jumbos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Milliarde Dollar investieren. Der französische Starpublizist Jean‑Jacques Servan‑Schreiber staunte 1967 in seinem Bestseller »Die amerikanische Herausforderung« über IBMs Aufwand, den er in jenen Kategorien sah, in die eigentlich nur noch der moderne Staat dachte: »Das entspricht der jährlichen Gesamtinvestition der Vereinigten Staaten, die Regierungsgelder einbegriffen, für Raumforschung.« Zum Vergleich: Das Manhattan‑Project, das nach dem japanischen Angriff auf Pearl Harbor am 7. Dezember 1941 der damalige US‑Präsident Franklin Roosevelt als geheime Operation gestartet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Milliarden Dollar gekostet und die USA zur ersten Nuklearmacht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhattan‑Project mitgewirkt, das in Los Alamos sein Zentrum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor beschäftigt«, erinnerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unterfangen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Erde präsent war, konnte auf eine Ingenieurs‑Elite zurückgreifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfügung stand. Ihre Techno‑Offensive erreichte mit der Vorbereitung und Vermarktung der /360 einen solchen Druck, daß ihr Mitbewerber vorwarfen, Ingenieurs‑Intelligenz zu monopolisieren. Servan‑Schreiber behauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Goldpreisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Konkurrenz buhlte weltweit um diese Intelligenz‑Ressource, die unglaublich viel zum Wohlstand und zur technologischen Überlegenheit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Höhepunkt.
Hatte der Krieg beim Manhattan Project Physiker und Mathematiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA vertrieben, so war es jetzt die Macht der Dollars, die das human capital nach Nordamerika lockte. Das Wirtschaftsmagazin Business Week stellte im September 1967 fest, dass allein zwischen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Ausland in die USA gekommen waren, ein starkes Drittel davon aus Europa. Kurzum: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vorzeige‑Unternehmen dieser Ära werden.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment misslingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamble«, wie Fortune im September 1966 titelte. Es war die »riskanteste Geschäftsentscheidung«, die bis dahin ein Unternehmen gefällt hatte. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwischen 1961 und 1967 von 150 Millionen Dollar auf satte 1,16 Milliarden Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Abenteuer gestartet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Seine Begründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Größenordnung der IBM jährlich um zehn bis 20 Prozent wächst, während die Volkswirtschaften der großen Industrienationen sich mit einer Rate von zwei Prozent begnügen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz umgerechnet zehn Prozent des Bruttosozialproduktes des Vereinigten Königreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spitzenbeamten Simon Nora und Alain Minc auf, in ihrer Bestseller‑Studie »Die Informatisierung der Gesellschaft« die Europäer zum Gegenangriff aufzurufen. »Die Politik muss vor allem die neuartige Herausforderung durch IBM berücksichtigen: Gestern noch Rechnerhersteller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Unternehmen eine Strategie, die es in die Lage versetzt, ein Nachrichtennetz zu errichten und zu kontrollieren. Es greift damit in eine Sphäre ein, die traditionell eine Staatsdomäne ist.«
Deshalb rieten die beiden Autoren dazu, eine internationale »Allianz der Fernmeldegesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Politik war Big Blue so stark, dass sie die Souveränität und Legitimation der Nationalstaaten gefährdet sahen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unternehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war niemand bereit, noch einmal wegen einer technologischen Herausforderung die gesamte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell entwickelt, das weitgehend dem entsprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vision. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbildeten, die im Kleinen durchaus denen der Computer ähnelten. Die Schaltbilder der Chips und die der Telekomnetze, mit deren Elektronisierung justament begonnen wurde, unterschieden sich optisch lediglich in den Dimensionen. Man brauchte nur eine schnelle Verbindung zwischen den Rechnern, um sie genau so einzuweben wie das Telefon ins Fernmeldenetz. Die Telekomgesellschaften verhinderten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Network‑Computings. IBM mußte deshalb in das Telekommunikationsgeschäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durchbruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem weltweiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmeldegesellschaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Telekoms gehörten außerdem zu ihren größten Kunden. Einen derartigen Angriff durch die mächtigste Computerfirma der Welt auf ihre wichtigsten Geldquellen hätten die Regierungen nie zugelassen. So musste sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das Internet. Es legte eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chaotisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staatlichen Widersachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits exemplifiziert hatte. Und hätte Big Blue in ihre eigene Geschichte hineingeschaut, dann hätte sie gesehen, dass bei aller kollektiven Genialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann gewinnt der Erfolg den Erfolg aus sich selbst. Er managt sich von allein.
Auf jeden Fall hatten Big Blues Technostrategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde abgewürgt. Das Management des Multis zog nicht mit. Es hatte sich dem Codex des späten 20. Jahrhunderts verpflichtet: es wollte überall als good citizen gelten, als braver, biederer und angepasster Bürger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräfte erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Cary dachte nur noch in business cases, in kleinen überschaubaren Projekten, die einen schnellen Return on Investment brachten. Das war die neue political correctness, der alle IBMer treublau folgten. An milliardenschweren, langwierigen und riskanten Projekten war Cary nicht interessiert. Er war kein Watson, der akzeptieren konnte, dass Technologen mitunter intelligenter sind als Manager. Watson wusste, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder einfach in Labors verkümmern lassen. Die IBM der kleinen Schritte war geboren.
Der brain drain, der zuvor in Richtung Big Blue gezogen war, wechselte zu den Wettbewerbern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mächtig hatte werden lassen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. haben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ihre ganze unternehmerische Stärke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeitraum von 1946 bis 1956 gewesen. In dieser Zeit waren beide nach außen hin eher unauffällig gewesen. Sie hatten sich internen Herausforderungen gestellt wie der Konzentration auf das Tabelliermaschinengeschäft (Watson Sen.) in den zwanziger Jahren oder der Umstellung auf die Elektronik (Watson Jun.) in den fünfziger Jahren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transformation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM ebenfalls an den Aufbau einer solchen neuen Autorität denken müssen. Und in der Tat wurde sie Mitte der achtziger Jahre in der Person von John Akers sichtbar. 1985 wurde er Chief Executive, ein Jahr später ihr Chairman. Aber er war ein vaterloser Watson, eine Kopfgeburt. Kein Unternehmer vom Schlage des extravaganten Charles Flint oder des patriarchalischen Watson Senior stand während der Aufbauzeit hinter ihm. So konnte Akers Mitte der siebziger Jahre nicht die nächste Transformation der Company einleiten,
- die sich mental auf den Service‑Gedanken hätte zurückbesinnen und
- technologisch voll auf die vernetzte Welt konzentrieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerstner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prinzip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müssen. Nicht, daß ihre Ex‑Partner Intel und Microsoft in der Börsenkapitalisierung an Big Blue vorbeigeschossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Geschichte nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dachte in Produkten und Produktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst niemals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den siebziger Jahren zu einem zutiefst selbstbezüglichen System entwickelte und dabei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM wollte sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließlich die Autorität entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die beiden Watsons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Lochkarte, der Junior war Elektronik. Die nächste Phase wäre Telekommunikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie verlangt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frühen fünfziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Deswegen gelang ihm die Einführung dieser Computer der dritten Generation. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma beinahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Technologie zu kreieren, hatte IBM wie niemals wieder in ihrer Geschichte alles riskiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher ereignet hatte. Die alte IBM hatte 1956 im Rahmen eines Antitrust‑Verfahrens versprochen, alle Patente, die sie hielt und ihr bis 1961 noch zugesprochen werden würden, gegen eine geringe Gebühr an die Wettbewerber abzugeben.
Das war ein gefährliches Spiel, wie Watson Jun. aus der Geschichte der Firma sehr genau wusste.
POP‑Art. Sein Vater hatte 1949 der British Tabulating Machines Co. (BTC) die Exklusivrechte für die Herstellung und Vermarktung von IBM‑Produkten sowie die Nutzung von Patenten erteilt ‑ mit dem Ergebnis, dass Big Blue selbst in den Ländern des britischen Commonwealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neuseeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst konkurrieren. Die Umsätze waren entsprechend mager. Schlimmer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapitals in britische Hände überging, hatte IBM überhaupt auf der Insel eine eigene Gesellschaft gründen dürfen. Für 28 Millionen Dollar hatte dann 1959 Sohn Watson die Anteile zurück erwerben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japaner hatten der Gesellschaft Ende der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rückstand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Transfer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Versprechen aus der Affäre ziehen können, daß IBM ihre Gewinne in den jeweiligen Märkten in den Aufbau von lokalen Fertigungsstätten hineinstecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM diesem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
[2] Computerworld, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gütersloh 1970: »Erdteil zweiter Klasse? ‑ Europas technologische Lücke«
[4] Electronics, 14.4.80, »Special Commemorative Issue«
[5] Frankfurter Allgemeine Zeitung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Connolly/Jeffrey Beeler: »The price of success: IBM /370 system won`t die«
[7] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
Um die Größe und Grandiosität dieser Ankündigung zu verstehen, muß man die Hintergründe durchleuchten, die zu diesem spektakulären Ereignis führten. Warum zum Beispiel hatten sich damals, im Januar 1961, bei der Sitzung des Topmanagements, die Technologen durchsetzen können? Wieso hatte das Topmanagement seine Zustimmung zu einem Projekt erteilt, bei dem die Firma ihre gesamte Existenz aufs Spiel setzte? Antwort: IBM befand sich in einem technologischen Rückstand. Ihre Produktlinien waren zur Jahreswende 1961/62 ausgereizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachstumsraten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachstum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Lichtblick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das genug für eine Firma, die zuvor alle vier Jahre ihre Umsätze verdoppelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorgsam gehüteten Marktanteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Corporation of America oder Honeywell traten auf, während sich die alten Kontrahenten durch Aufkäufe vergrößerten. Mehr noch: die Konkurrenz begann, das Geschäft mit kompatiblen Rechnern zu entdecken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Vergangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Calculator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnettrommel als Hauptspeicher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avantgarde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Monatsmiete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerechnet, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnettrommeln zu vermieten. Ein Vermögen würde indes die Gesellschaft erwirtschaften, wenn sie gar 250 Maschinen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurückgezogen wurde, waren mehrere Tausend dieser Rechner verkauft worden. So wurde diese primitive Maschine der erste massenproduzierte Rechner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Transistorrechner Univac 80 genau gegen diesen Magnettrommelrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel abzeichnete, die Wettbewerber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus diesem Dilemma befreien ‑ und sich diesmal an die Spitze der Revolution stellen. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu lassen, bestand darin, viel Geld anzufassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von Innovationen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vice President T. Vincent (Vin) Learson seinen Chef nachdrücklich aufmerksam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilemma befreien. Watson spürte selbst »den Druck des Marktes«. Er ahnte, dass er alles auf eine Karte setzen musste. Die Lage war brenzlig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Superlativen gefeiert wurde. »Es war die größte industrielle Investition, die jemals in der Industriegeschichte von einem Privatunternehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Serie fünf Milliarden Dollar auf. Das entsprach 1966 den gesamten Einnahmen aller Computerhersteller der Welt«, staunte 1970 der Spiegel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lücke«.[3] In der Tat ‑ rund 4,5 Milliarden Dollar Kapitalinvestitionen für Fabriken, Ausrüstung und Mietmaschinen hatte IBM im Umfeld der /360‑Ankündigung aufgebracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Entwicklung. Zum Vergleich: Für ENIAC, für den ersten praxiserprobten Röhrenrechner der USA, waren bis zu seiner Inbetriebnahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar geflossen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Entwicklung des Jumbos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Milliarde Dollar investieren. Der französische Starpublizist Jean‑Jacques Servan‑Schreiber staunte 1967 in seinem Bestseller »Die amerikanische Herausforderung« über IBMs Aufwand, den er in jenen Kategorien sah, in die eigentlich nur noch der moderne Staat dachte: »Das entspricht der jährlichen Gesamtinvestition der Vereinigten Staaten, die Regierungsgelder einbegriffen, für Raumforschung.« Zum Vergleich: Das Manhattan‑Project, das nach dem japanischen Angriff auf Pearl Harbor am 7. Dezember 1941 der damalige US‑Präsident Franklin Roosevelt als geheime Operation gestartet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Milliarden Dollar gekostet und die USA zur ersten Nuklearmacht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhattan‑Project mitgewirkt, das in Los Alamos sein Zentrum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor beschäftigt«, erinnerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unterfangen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Erde präsent war, konnte auf eine Ingenieurs‑Elite zurückgreifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfügung stand. Ihre Techno‑Offensive erreichte mit der Vorbereitung und Vermarktung der /360 einen solchen Druck, daß ihr Mitbewerber vorwarfen, Ingenieurs‑Intelligenz zu monopolisieren. Servan‑Schreiber behauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Goldpreisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Konkurrenz buhlte weltweit um diese Intelligenz‑Ressource, die unglaublich viel zum Wohlstand und zur technologischen Überlegenheit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Höhepunkt.
Hatte der Krieg beim Manhattan Project Physiker und Mathematiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA vertrieben, so war es jetzt die Macht der Dollars, die das human capital nach Nordamerika lockte. Das Wirtschaftsmagazin Business Week stellte im September 1967 fest, dass allein zwischen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Ausland in die USA gekommen waren, ein starkes Drittel davon aus Europa. Kurzum: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vorzeige‑Unternehmen dieser Ära werden.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment misslingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamble«, wie Fortune im September 1966 titelte. Es war die »riskanteste Geschäftsentscheidung«, die bis dahin ein Unternehmen gefällt hatte. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwischen 1961 und 1967 von 150 Millionen Dollar auf satte 1,16 Milliarden Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Abenteuer gestartet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Seine Begründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Größenordnung der IBM jährlich um zehn bis 20 Prozent wächst, während die Volkswirtschaften der großen Industrienationen sich mit einer Rate von zwei Prozent begnügen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz umgerechnet zehn Prozent des Bruttosozialproduktes des Vereinigten Königreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spitzenbeamten Simon Nora und Alain Minc auf, in ihrer Bestseller‑Studie »Die Informatisierung der Gesellschaft« die Europäer zum Gegenangriff aufzurufen. »Die Politik muss vor allem die neuartige Herausforderung durch IBM berücksichtigen: Gestern noch Rechnerhersteller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Unternehmen eine Strategie, die es in die Lage versetzt, ein Nachrichtennetz zu errichten und zu kontrollieren. Es greift damit in eine Sphäre ein, die traditionell eine Staatsdomäne ist.«
Deshalb rieten die beiden Autoren dazu, eine internationale »Allianz der Fernmeldegesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Politik war Big Blue so stark, dass sie die Souveränität und Legitimation der Nationalstaaten gefährdet sahen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unternehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war niemand bereit, noch einmal wegen einer technologischen Herausforderung die gesamte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell entwickelt, das weitgehend dem entsprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vision. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbildeten, die im Kleinen durchaus denen der Computer ähnelten. Die Schaltbilder der Chips und die der Telekomnetze, mit deren Elektronisierung justament begonnen wurde, unterschieden sich optisch lediglich in den Dimensionen. Man brauchte nur eine schnelle Verbindung zwischen den Rechnern, um sie genau so einzuweben wie das Telefon ins Fernmeldenetz. Die Telekomgesellschaften verhinderten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Network‑Computings. IBM mußte deshalb in das Telekommunikationsgeschäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durchbruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem weltweiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmeldegesellschaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Telekoms gehörten außerdem zu ihren größten Kunden. Einen derartigen Angriff durch die mächtigste Computerfirma der Welt auf ihre wichtigsten Geldquellen hätten die Regierungen nie zugelassen. So musste sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das Internet. Es legte eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chaotisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staatlichen Widersachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits exemplifiziert hatte. Und hätte Big Blue in ihre eigene Geschichte hineingeschaut, dann hätte sie gesehen, dass bei aller kollektiven Genialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann gewinnt der Erfolg den Erfolg aus sich selbst. Er managt sich von allein.
Auf jeden Fall hatten Big Blues Technostrategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde abgewürgt. Das Management des Multis zog nicht mit. Es hatte sich dem Codex des späten 20. Jahrhunderts verpflichtet: es wollte überall als good citizen gelten, als braver, biederer und angepasster Bürger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräfte erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Cary dachte nur noch in business cases, in kleinen überschaubaren Projekten, die einen schnellen Return on Investment brachten. Das war die neue political correctness, der alle IBMer treublau folgten. An milliardenschweren, langwierigen und riskanten Projekten war Cary nicht interessiert. Er war kein Watson, der akzeptieren konnte, dass Technologen mitunter intelligenter sind als Manager. Watson wusste, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder einfach in Labors verkümmern lassen. Die IBM der kleinen Schritte war geboren.
Der brain drain, der zuvor in Richtung Big Blue gezogen war, wechselte zu den Wettbewerbern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mächtig hatte werden lassen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. haben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ihre ganze unternehmerische Stärke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeitraum von 1946 bis 1956 gewesen. In dieser Zeit waren beide nach außen hin eher unauffällig gewesen. Sie hatten sich internen Herausforderungen gestellt wie der Konzentration auf das Tabelliermaschinengeschäft (Watson Sen.) in den zwanziger Jahren oder der Umstellung auf die Elektronik (Watson Jun.) in den fünfziger Jahren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transformation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM ebenfalls an den Aufbau einer solchen neuen Autorität denken müssen. Und in der Tat wurde sie Mitte der achtziger Jahre in der Person von John Akers sichtbar. 1985 wurde er Chief Executive, ein Jahr später ihr Chairman. Aber er war ein vaterloser Watson, eine Kopfgeburt. Kein Unternehmer vom Schlage des extravaganten Charles Flint oder des patriarchalischen Watson Senior stand während der Aufbauzeit hinter ihm. So konnte Akers Mitte der siebziger Jahre nicht die nächste Transformation der Company einleiten,
- die sich mental auf den Service‑Gedanken hätte zurückbesinnen und
- technologisch voll auf die vernetzte Welt konzentrieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerstner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prinzip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müssen. Nicht, daß ihre Ex‑Partner Intel und Microsoft in der Börsenkapitalisierung an Big Blue vorbeigeschossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Geschichte nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dachte in Produkten und Produktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst niemals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den siebziger Jahren zu einem zutiefst selbstbezüglichen System entwickelte und dabei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM wollte sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließlich die Autorität entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die beiden Watsons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Lochkarte, der Junior war Elektronik. Die nächste Phase wäre Telekommunikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie verlangt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frühen fünfziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Deswegen gelang ihm die Einführung dieser Computer der dritten Generation. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma beinahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Technologie zu kreieren, hatte IBM wie niemals wieder in ihrer Geschichte alles riskiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher ereignet hatte. Die alte IBM hatte 1956 im Rahmen eines Antitrust‑Verfahrens versprochen, alle Patente, die sie hielt und ihr bis 1961 noch zugesprochen werden würden, gegen eine geringe Gebühr an die Wettbewerber abzugeben.
Das war ein gefährliches Spiel, wie Watson Jun. aus der Geschichte der Firma sehr genau wusste.
POP‑Art. Sein Vater hatte 1949 der British Tabulating Machines Co. (BTC) die Exklusivrechte für die Herstellung und Vermarktung von IBM‑Produkten sowie die Nutzung von Patenten erteilt ‑ mit dem Ergebnis, dass Big Blue selbst in den Ländern des britischen Commonwealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neuseeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst konkurrieren. Die Umsätze waren entsprechend mager. Schlimmer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapitals in britische Hände überging, hatte IBM überhaupt auf der Insel eine eigene Gesellschaft gründen dürfen. Für 28 Millionen Dollar hatte dann 1959 Sohn Watson die Anteile zurück erwerben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japaner hatten der Gesellschaft Ende der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rückstand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Transfer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Versprechen aus der Affäre ziehen können, daß IBM ihre Gewinne in den jeweiligen Märkten in den Aufbau von lokalen Fertigungsstätten hineinstecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM diesem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
[2] Computerworld, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gütersloh 1970: »Erdteil zweiter Klasse? ‑ Europas technologische Lücke«
[4] Electronics, 14.4.80, »Special Commemorative Issue«
[5] Frankfurter Allgemeine Zeitung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Connolly/Jeffrey Beeler: »The price of success: IBM /370 system won`t die«
[7] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
Samstag, 11. April 2009
Die 5.000.000.000-Dollar-Wette (Part 1)
Greenwich (Connecticut). Donnerstag, 28. Dezember 1961. Im Sheraton New Englander Motel trafen sich 13 IBMer zum Abschluß‑Communiqué. 60 Tage lang hatten sie an dem Papier gearbeitet. Wen immer sie für ihre Arbeit brauchten, er stand ihnen mit all seinem Wissen zur Verfügung. Ihr Anführer war Don Spaulding, der Chief Assistant des allmächtigen Vincent T. Learson, seit 1959 als Vice President Herrscher über die wichtigsten Produktlinien der IBM. Nun waren die Ergebnisse dieser kollektiven Arbeit niedergeschrieben: 80 Seiten umfaßte das Dokument. Das ganze Knowhow der Company, ihr intellektuelles Kapital, war darin zusammengefaßt und in eine neue Perspektive gesetzt worden. Spaulding und seine zwölf Jünger hielten ein grandioses Konzept in der Hand. Der Name des Masterplans lautete kurz & bündig: SPREAD.
Das stand offiziell für Systems Programming Research and Development. Inoffiziell aber wurden die sechs Buchstaben als Spaulding's Plan to Reorganize Each and All Divisions entschlüsselt.[1] Das war es auch: nachdem IBM in den fünfziger Jahren unter großen Mühen den Sprung ins Elektronikzeitalter geschafft, sich 1959 erstmals eine wirkliche Organisation gegeben hatte, war sie endlich soweit, das gewaltigste und riskanteste Projekt in ihrer Geschichte anzugehen, bei dem sie ihre gesamten Ressourcen neu ausrichtete. Sie wollte eine Computerserie entwickeln, die weltweit nach denselben Prinzipien gebaut und verkauft werden sollte, eine in sich kompatible Rechnerfamilie, die alles ablösen sollte, was jetzt bei den Kunden installiert war. Der große Wurf sollte gewagt werden.
Dieser SPREAD‑Ausschuß beendete einen Streit, der seit Anfang 1960 in der Company tobte, immer neue Fraktionen hochgespült hatte ‑ innerhalb und zwischen den einzelnen Divisions. Es ging um Technologien & Produktabgrenzungen, um Prestige & Karrieren, um Markt & Moneten. Dahinter verbarg sich sogar ein regelrechter Bruderkrieg. Thomas Watson Jun. mußte sich als Chief Executive der IBM Corp. gegen Arthur K. Watson durchsetzen, der die IBM World Trade wie ein eigenes Königreich leitete. Zweimal schon hatte Bruder Arthur vergeblich versucht, einen eigenen Computer für sein Imperium zu entwickeln. Justament hatte er einen dritten Versuch gestartet. Das Ziel hinter SPREAD war indes: keine Sonderwege mehr. Stattdessen galt die globale Formel: »Alle für einen. Einer für alle.« Konzeptionell war die Sache entschieden. Aber würde sich der Geniestreich realisieren lassen? Den Beteiligten steckte noch das Stretch‑Fiasko in den Knochen. Das war ein Supercomputer gewesen, mit dessen Entwicklung IBM 1955 begonnen hatte. Weder technisch noch wirtschaftlich erfüllte er die Erwartungen. Deshalb hatte Thomas J. Watson wenige Monate zuvor, im Mai 1961, den Preis von 13,5 auf acht Millionen Dollar kürzen müssen. Es war seine erste Amtshandlung als Chairman, zu dem ihn justament der Aufsichtsrat gewählt hatte. Insgesamt hatte das Unternehmen 20 Millionen Dollar bei dem Projekt verloren. Watson hatte seine Leute nachdrücklich gewarnt: »Wir müssen künftig bei unseren Versprechungen erheblich sorgfältiger sein.«[2] Das bedeutete: vor allem die Planungen mussten besser werden. Diesmal durfte es keine Panne geben. Das war der Schwur von Greenwich.
New York. Donnerstag, 4. Januar 1962. Eine Woche nach dem Treffen in Greenwich präsentierte das Team vor 50 Top Executives im damaligen Hauptquartier der IBM in New York seinen grandiosen Plan. Die Resonanz war verhalten. Aber es gab auch keine wichtigen Gegenargumente. Nur eins bereitete den Managern sichtlich Sorgen: die Ausgaben für die Software. Den Aufwand für ein »SPREADsheet« hatte das Spaulding‑Team vorsichtig mit 125 Millionen Dollar beziffert. Das lag deutlich über jenen zehn Millionen Dollar, die IBM sonst jährlich in Programme für alle Produktfamilien steckte. Die hohen Herren wiegten noch voller Bedenken mit ihren Köpfen. Hätten sie die volle Wahrheit gewusst, dann wäre das Projekt erst gar nicht gestarter worden: eine halbe Millarde Dollar sollte nämlich der tatsächliche Preis der Supersoftware werden. Manchem steckte noch die Transformation aus den fünfziger Jahren in den Knochen.
Aber wozu ist eine großartige Organisation da, wenn sie sich nicht auch an großartige Dinge heranwagt? Da ergriff schließlich Learson das Wort und erklärte kurz & knapp: »Okay, wir machen es!« Thomas Watson sah in die Runde. Ein Entscheidungsträger nach dem anderen willigte ein, obwohl jeder erkannte, dass von nun an »alle unsere Ressourcen nur in einem einzigen Projekt steckten ‑ und wir wussten, dass wir für eine ziemlich lange Zeit aus unseren Investitionen nichts herausbekamen.«
Das stand offiziell für Systems Programming Research and Development. Inoffiziell aber wurden die sechs Buchstaben als Spaulding's Plan to Reorganize Each and All Divisions entschlüsselt.[1] Das war es auch: nachdem IBM in den fünfziger Jahren unter großen Mühen den Sprung ins Elektronikzeitalter geschafft, sich 1959 erstmals eine wirkliche Organisation gegeben hatte, war sie endlich soweit, das gewaltigste und riskanteste Projekt in ihrer Geschichte anzugehen, bei dem sie ihre gesamten Ressourcen neu ausrichtete. Sie wollte eine Computerserie entwickeln, die weltweit nach denselben Prinzipien gebaut und verkauft werden sollte, eine in sich kompatible Rechnerfamilie, die alles ablösen sollte, was jetzt bei den Kunden installiert war. Der große Wurf sollte gewagt werden.
Dieser SPREAD‑Ausschuß beendete einen Streit, der seit Anfang 1960 in der Company tobte, immer neue Fraktionen hochgespült hatte ‑ innerhalb und zwischen den einzelnen Divisions. Es ging um Technologien & Produktabgrenzungen, um Prestige & Karrieren, um Markt & Moneten. Dahinter verbarg sich sogar ein regelrechter Bruderkrieg. Thomas Watson Jun. mußte sich als Chief Executive der IBM Corp. gegen Arthur K. Watson durchsetzen, der die IBM World Trade wie ein eigenes Königreich leitete. Zweimal schon hatte Bruder Arthur vergeblich versucht, einen eigenen Computer für sein Imperium zu entwickeln. Justament hatte er einen dritten Versuch gestartet. Das Ziel hinter SPREAD war indes: keine Sonderwege mehr. Stattdessen galt die globale Formel: »Alle für einen. Einer für alle.« Konzeptionell war die Sache entschieden. Aber würde sich der Geniestreich realisieren lassen? Den Beteiligten steckte noch das Stretch‑Fiasko in den Knochen. Das war ein Supercomputer gewesen, mit dessen Entwicklung IBM 1955 begonnen hatte. Weder technisch noch wirtschaftlich erfüllte er die Erwartungen. Deshalb hatte Thomas J. Watson wenige Monate zuvor, im Mai 1961, den Preis von 13,5 auf acht Millionen Dollar kürzen müssen. Es war seine erste Amtshandlung als Chairman, zu dem ihn justament der Aufsichtsrat gewählt hatte. Insgesamt hatte das Unternehmen 20 Millionen Dollar bei dem Projekt verloren. Watson hatte seine Leute nachdrücklich gewarnt: »Wir müssen künftig bei unseren Versprechungen erheblich sorgfältiger sein.«[2] Das bedeutete: vor allem die Planungen mussten besser werden. Diesmal durfte es keine Panne geben. Das war der Schwur von Greenwich.
New York. Donnerstag, 4. Januar 1962. Eine Woche nach dem Treffen in Greenwich präsentierte das Team vor 50 Top Executives im damaligen Hauptquartier der IBM in New York seinen grandiosen Plan. Die Resonanz war verhalten. Aber es gab auch keine wichtigen Gegenargumente. Nur eins bereitete den Managern sichtlich Sorgen: die Ausgaben für die Software. Den Aufwand für ein »SPREADsheet« hatte das Spaulding‑Team vorsichtig mit 125 Millionen Dollar beziffert. Das lag deutlich über jenen zehn Millionen Dollar, die IBM sonst jährlich in Programme für alle Produktfamilien steckte. Die hohen Herren wiegten noch voller Bedenken mit ihren Köpfen. Hätten sie die volle Wahrheit gewusst, dann wäre das Projekt erst gar nicht gestarter worden: eine halbe Millarde Dollar sollte nämlich der tatsächliche Preis der Supersoftware werden. Manchem steckte noch die Transformation aus den fünfziger Jahren in den Knochen.
Aber wozu ist eine großartige Organisation da, wenn sie sich nicht auch an großartige Dinge heranwagt? Da ergriff schließlich Learson das Wort und erklärte kurz & knapp: »Okay, wir machen es!« Thomas Watson sah in die Runde. Ein Entscheidungsträger nach dem anderen willigte ein, obwohl jeder erkannte, dass von nun an »alle unsere Ressourcen nur in einem einzigen Projekt steckten ‑ und wir wussten, dass wir für eine ziemlich lange Zeit aus unseren Investitionen nichts herausbekamen.«
Frankfurt. Freitag, 4. April 1964. Die Botschaft erreichte den jungen IBMer erst nach Büroschluß. Als Peter L., 27 Jahre alt, an diesem Abend daheim seine Post sichtete, tat sich ihm zwischen Bankauszügen und Reklamepost eine Windrose auf. Der ansonsten als clever & smart eingeschätzte Vertriebsbeauftragte aus der Niederlassung Frankfurt der IBM Deutschland GmbH war perplex: die Postkarte enthielt außer seiner Adresse und dem roten Symbol keine weitere Message. Der IBM‑Nachwuchsmann verdrängte nach einigen Grübeleien diese scheinbar unsinnige Nachricht. Das Wochenende hatte begonnen...
Frankfurt. Montag, 7. April 1964. Ein wenig verwundert wanderte an diesem Frühlingsmorgen Peter L. durch die Blumenallee des Frankfurter Palmengartens. Zwischen den geraden erblühten Osterglocken und Tulpen des Frühlings 1964 ragten rund 1000 strahlendweiße Papierwimpel empor, alle ebenfalls mit dem mysteriösen Zeichen, mit dieser geheimnisvollen Windrose, bedruckt.
Das Zeichen war Signal. An diesem Aprilmorgen sollte sich die Computerwelt gründlich verändern. Doch davon ahnten Peter L. und seine zweihundert in feierlichem Dunkelblau versammelten Kollegen zunächst noch nichts. Nur eins war ihnen klar: den Tuscheleien und Flüsterparolen der vergangenen Monate sollte durch die Ankündigung eines neuen Computersystems ein Ende gesetzt werden. Was kam, war eine neue Rechnergeneration. IBM verkündete der völlig überraschten Computerwelt das System /360. Das Datum war gut gewählt. Die Firma feierte gerade ihren 50. Geburtstag. Seit einem halben Jahrhundert regierten Watson & Son. Ein Weltimperium mit einem Umsatz von 3,239 Milliarden Dollar war entstanden. An diesem Tag sollte sich aber vor allem die Zukunft der nächsten Jahrzehnte entscheiden.
Es war das Jahr der Entscheidung, in dem Bob Dylan sein Lied »The times they are a changing« schrieb, die Beatles mit »A hard days night« ihr Filmdebut gaben und erstmals auf Welttournee gingen. Doch vor allem sollten sich die Zeiten im Computergeschäft ändern, sollten zwei lange Jahre harte Arbeit mit einer Welturaufführung belohnt werden.
Von dem, was kam, war Peter L. schlichtweg fasziniert. Für ihn klärten sich die letzten undeutbaren Inhalte der Windrose auf ‑ stilgerecht abgetönt durch das etwas geschrumpfte Orchester des Hessischen Rundfunks: hinter der heute bis zur Unverständlichkeit verkürzten Bezeichnung Schrägstrich 360 verbarg sich der allumfassende Anspruch der IBM, über alle 360 Längengrade hinweg, mit einer neuen Systemgeneration Tausende von DV‑Benutzern glücklich zu machen. Das »aufwindige« Announcement, das gleichzeitig auf allen IBM‑Basen rund um den Erdball abrollte, enthüllte die neue Philosophie, die von nun an das weltweite Wechselspiel zwischen Markt und Technologie bestimmen sollte. Zwar war zunächst mehr Wind als Rose. Doch mit dem Wirbel um die neue Serie konnte die IBM vorerst all die Schwierigkeiten hinwegblasen, die durch die Schöpfung der dritten Generation dem Computer‑Giganten erwuchsen und seinen Kreislauf wiederholt angriffen. So wurde von der Geburt der Idee im Jahre 1961 bis hin zur Ankündigung der Systemfamilie die Struktur des Weltkonzerns allein dreimal umgekrempelt.
Doch die größte Veränderung lag darin, daß mit dem Aufsetzen des SPREAD‑Plans bei IBM endlich die Technologen das Zepter in die Hand genommen hatten. So schrieb 1966 das amerikanische Wirtschaftsmagazin Fortune: »Zum ersten Mal trat eine neue Gruppe von technisch orientierten Managern in den Vordergrund und zerstörten einiges von jener traditionellen Macht, die die Marketiers in der Firma hielten.«[3] In der Folge sollten die sechziger Jahre die aufregendste und innovativste Dekade des Computings werden. Die junge Branche setzte zum Sprung ins 21. Jahrhundert an. Während einige Forscher bereits die Ankunft des Personal Computers prophezeiten, sollten die nächsten zwei Jahrzehnte jedoch vor allem einer Species gehören: den Mainframes, deren erster Erfolgstyp die /360 war.
ZURÜCK ZUR USU-TIMELINE
[1] Datamation, 15.5.84, Robert L. Patrick: »The seed of empire«
[2] Fortune, 9/66, T. Wise: »I.B.M.'s $5.000.000.000 Gamble«
[3] Fortune, 9/66, T. Wise: »I.B.M.'s $5.000.000.000 Gamble«
Freitag, 10. April 2009
Die Mainframe-Ära 1994: Der Wechsel zu CMOS
Diese Story entstand vor 15 Jahren
Die CMOS-Pyramide
Von Raimund Vollmer
»Es hat immer geheißen, die Gestirne sind an einem kristallenen Gewölbe angeheftet, dass sie nicht herunterfallen können. Jetzt haben wir Mut gefasst und lassen sie im Freien schweben, ohne Halt, und sie sind in großer Fahrt, gleich unseren Schiffen, ohne Halt und in großer Fahrt.«
Galileo Galilei in dem Schauspiel »Leben des Galilei« von Bertolt Brecht[1]
Tokio. Dienstag, 5. April 1994. Der wohl erste Landesfürst im Weltreich der IBM, der an diesem Tag den neuen Parallel Sysplex vorstellte, war Kakutaro Kitashiro, Präsident der IBM Japan. Und er nutzte natürlich den Zeitvorsprung, um die historische Wendemarke zu besetzen. »Seit der Entwicklung der ersten Mainframe‑Maschine der Welt, des Systems /360 vor 30 Jahren, ist dies heute die Ankündigung der innovativsten Produktfamilie«, erklärte er dem Publikum im zweitgrößten Mainframe‑Markt der Welt.[2] Und damit hatte er seinen Kunden suggeriert, dass die Neuentwicklung nun die nächsten 30 Jahre bestimmen würde.
So wurde jedenfalls die Botschaft aufgenommen. »Das Geschäft mit Mainframe‑Computer ist mit dem Aufkommen der Parallelrechner so gut wie beendet«, kommentierte Massahiko Ishino, Analyst beim japanischen Investmenthaus Yamaichi Research Institute of Securities & Economics.[3] Richtig. Aber das galt nur für das Innere der Rechner: die Prozessoren. Die Anwendungswelt kam ungeschoren davon.
Die rettende Initiative dazu, mit der dieses Wunderstück, die Gratwanderung zwischen neuer und alter Welt zu meistern sei, hat ihren Ursprung nicht in den High‑Tech‑Ländern Japan oder Amerika, sondern in Europa, präziser: in Deutschland, im Entwicklungslabor in Schönaich bei Böblingen. Es löste zuerst das Prozessor‑Dilemma und wies dann den Weg in die Parallelverarbeitung. Und so war dieser 5. April in erster Linie der Tag des Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH. Stolz konnte er in Deutschland verkünden: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Ende des Chipdilemmas. Das erste Problem, das er und seine Mannschaft lösten, war das Chip‑Dilemma. Das Zauberformel heißt CMOS/Complemtar Metall‑Oxyde Semiconductor). Es ist der Grundbaustein der Parallel‑Pyramide. Mit dieser Logik, die 1974 RCA erstmals im Bereich der Konsumentenelektronik verwendete, hatte die IBM 1986 nur Erfahrung im Bereich der massengefertigten Speicherchips. Das Labor in Schönaich, das damals für die Entwicklung des kleinen Mainframes IBM 9370 verantwortlich war, nutzte CMOS, um daraus erstmals einen Mikroprozessor zu zeugen, der /370‑kompatibel war. 1988 war das Problem gelöst. Die IBM 9370 wurde fortan mit diesem Prozessor bestückt.
Damit war ein gewaltiger Brückenschlag geglückt. Denn die bisherige Domäne der CMOS‑Welt war bis dahin der Desktop‑Markt gewesen, den sie mit äußerst preisgünstigen Prozessoren beglückte. Ja, sie waren es gewesen, die den Preis‑Leistungs‑Vergleich zwischen Mainframes und PCs ständig zugunsten der Desktops verschoben.
Die Entwicklungslabors in Poughkeepsie und Endicott sahen diesen Erfolg mit höchst gemischten Gefühlen. Hier hatte man die 9370 nie so richtig ernst genommen. Sie war der Lumpensammler in der Großrechnerwelt, der sich vornehmlich in exotischen Gefilden bewegte. Würde er als CMOS‑Ausleger nun in die Domänen der erwachsenen Mainframes vorstoßen, oder war er nichts anderes als eine Desktop‑/370?
Statt immer mehr Leistung in aufwendig zu entwickelnde Prozessor hineinzupressen, werden nun massengefertigte Mikroprozessoren dafür verwendet werden. Technisch bedeutet dies
- die Abkehr von energieintensiven bipolaren Chips (z.B. Emitter Coupled Logic)
- hin zu CMOS‑Halbleitern (Complementary Metal Oxide Semiconductor).
Vorstufen dieser Technologie wurden bereits in den frühen siebziger Jahren in Speicherbausteinen, den RAMs (Random Access Memories) verwendet. In den achtziger Jahren öffnete dann die CMOS‑Technologie das Tor zum Megabit‑Speicher. Mehr noch: sie eroberte das neue Feld der Hochleistungs‑Mikroprozessoren.
Was CMOS‑Chips auszeichnet, ist ihr im Vergleich zu den bipolaren Gegenstücken erheblich geringerer Energieverbrauch. Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH, berichtet, dass der Strombedarf um den »Faktor 10 niedriger ist« als in der bipolaren Welt, die mit ihren ECL‑Chips »gandenlos viel Energie verbraucht«. Den Vorteil der CMOS‑Technologie bekommen die Kunden in Heller & Pfennig zu spüren. Denn die »Stromrechnung ist ein wichtiger Teil der Systemkosten« (Kircher).
Packungsdichte. So können aber auch Schaltkreise auf engsten Raum gepackt werden, ohne dass die Gefahr einer Überhitzung besteht, der nur noch mit aufwendiger Wasserkühlung begegnet werden kann. Statt »10.000 oder 100.000 Transistorfunktionen« können in der CMOS‑Technologie Millionen zusammengepackt werden.
Entwicklungskosten. Obwohl der ECL basierende Einzelprozessor mit 60 MIPS mehr als doppelt so stark ist wie sein aus CMOS hergestelltes Gegenstück, schlägt dieser in puncto Wirtschaftlichkeit allemal seinen großen Bruder. Seine Entwicklung ist zehnmal preiswerter als bei ECL‑Auslegern.
Preis/Leistungs‑Verhältnis. Zudem kann das Preis‑Leistungsverhältnis bei ECL‑Chips pro Jahr nur um 15 Prozent gesteigert werden, bei den CMOS‑Ableger aber sind Sprünge von 40 Prozent drin ‑ nicht zuletzt dank Massenfertigung.
Leistungssprünge. Während sich bei ECL‑Rechnern die Leistung nur alle fünf Jahre verdoppelt, schaffen dies CMOS‑Computer alle zwei Jahre. So arbeitet Kircher bereits jetzt an dem CMOS‑Prozessor, der 1996 auf den Markt kommen wird.
Was dabei erstaunt, ist die Tatsache, dass diese Vorteile seit mehr als zehn Jahren bekannt sind. 1982 veröffentlichte die Marktforschung Strategic Inc. in London eine Studie, die voraussagte, dass spätestens gegen Ende unseres Jahrhundert 80 Prozent aller Chips auf CMOS basieren würden. Die Firmen müssten anfangen, im großen Stil ihre höchstintegrierte Schaltkreise nach diesem Verfahren zu entwickeln. Wer das nicht täte, würde Marktanteile verlieren.[4] Aber Firmen wie IBM glaubten, dass dies für alle anderen Märkte stimmen würde, nur nicht für Großrechner. Ein fataler Irrtum, der an die Vorzeit der /360 erinnert, als Gottkönig Watson Jr. mit einem Befehl durchsetzte, nur noch die Transistortechnik zu verwenden.
Natürlich ist es das Rechenprinzip der Parallelverarbeitung, dem die CMOS‑Generation es jetzt zu verdanken hat, dass sie mit einem geistigen Trick die Begrenzungen der Technik zu überwinden kann. Kurzum: sie nutzt den Hase‑Igel‑Effekt. Während in einem traditionellen Mainframe bis 1993 maximal zehn mächtige Prozessoren (ES/900‑9X2) kooperieren können, sind in den neuen Parallelrechner Dutzende von CPUs zu einer Einheit verknüpft. Aus den Einzelblöcken entsteht die CMOS‑Pyramide.
Neues Denken. Das hört sich simpel an. Man fragt sich: Warum entdeckte die kommerzielle DV die Parallelverarbeitung erst so spät? Der Hauptgrund liegt darin, dass sie auf der Softwareseite letztlich das Entstehen von radikal anderen Algorithmen erfordert. Das Programmierwissen hatte sich voll und ganz auf einer seriellen Sicht auf die Welt verschrieben. Das heißt: wollen die Anwendungsentwickler die Potentiale auch tatsächlich nutzen, müssen sie völlig umdenken. Dahinter steht ein Paradigmawechsel, der weitaus größer ist als IBMs Abschied in den sechziger Jahren von der Lochkarte (die damals intern und extern wahre Tumulte auslöste).
Die Ironie dabei: Die Programmierer müssen die Welt so sehen, wie sie sich heute in zunehmenden Maße (Schlagwort: Business Reengineering) organisiert ‑ in ihrer Gleichzeitigkeit. Das lässt sie zögern & zaudern, zumal sie beim Reengineering schon jetzt große Probleme haben. Sie entdecken, dass sie damit eine Pandora‑Büchse geöffnet haben. (Siehe Kasten: Voll erwischt)
Sollen sie dann auch noch das alles so umsetzen, dass die Möglichkeiten der Parallelverarbeitung voll nutzt, dann müssen sie mit noch mehr Überrschungen fertig werden. So werden 1994 im Markt der Parallelrechner gerade 600 Millionen Dollar weltweit umgesetzt, davon geht der Hauptteil in die technisch‑wissenschaftliche Welt. Im Vergleich dazu katapultierte sich zwischen 1962 und 1991 das stets hochprofitable Mainframe‑Geschäft von einer auf 30 Milliarden Dollar, um dann allerdings zu einer beispiellosen Talfahrt anzusetzen.[5]
Den Absturz auffangen und einen neuen Aufwärtstrend erzeugen ‑ so sieht die Aufgabe aus. Ist das überhaupt machbar?
Das Gesetz der Trägheit
Hürde & Bürde. Etwa 20 Jahre brauchte also die Idee des John von Neumann, bis sie sich kommerziell durchsetzte, und weitere 20 Jahre lang durfte sie ihren Erfolg voll auskosten. Heute stehen weltweit Anwendungsinvestitionen im Wert von 1.200 Milliarden Dollar hinter den Mainframes. Diese Hürde ist auch die Bürde: Nur eine alternative Technologie, die diesen immensen Aufwand an programmierten Unternehmenswissen in sich aufsaugen konnte, hat überhaupt eine Chance, in die Großrechner‑Phalanx einzubrechen. Und hier war lange Zeit weit & breit nichts zu sehen ‑ bis zu diesem 5. April 1994. Da verkündete Hug, dass der neue Parallel Sysplex »im hohen Umfang« kompatibel mit der Vergangenheit sei. Das heißt: der Anwendungsbestand, der allein hierzulande »einen Wert von 250 Milliarden Mark darstellt« (Hug), kann weitgehend übernommen werden.
Endlich scheint sich die Parallelverarbeitung eine Bahn zu brechen, ohne dabei sofort ein völlig neues Denken bei den Entwicklern zu erfordern. Damit wurde ein Signal gesetzt: »Das goldene Zeitalter der Mainframes, in dem große Rechner und IBM alles beherrschten, ist vorbei«. So lautete bereits im Februar 1993 das Urteil der New York Times, als einen Monat zuvor die ersten Gerüchte über den neuen »Superserver« in Umlauf kamen.[6] Ein gutes Jahr später konterte das amerikanische Nachrichtenmagazin Time: »Das Schwermetall wird weiter regieren.« Und weiter: »Die Dinosaurier sind weit davon entfernt, ausgelöscht zu werdenn.«[7]
Jetzt wurde deutlich: Seine Retter sind die Parallelrechner, die zugleich der letzte Abkömmling und der erste Systemüberwinder der /360‑Generation sind. Kircher, in dessen Verantwortungsbereich, dem Labor in Schönaich bei Böblingen, der Parallelrechner seine Geburtsstunde erlebte: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Jahrzehntelang hatte der grandiose Aufstieg der Mainframes die Idee der Parallelverarbeitung überdeckt. Die Technologie war schlichtweg noch nicht so weit, um den neuen Denkansatz in die Rechenzentren zu tragen.
Aber dann nahm die Technologie mit dem Aufkommen der Mikroprozessoren und der Speicherchips mächtig an Fahrt auf. Zu Beginn der achtziger Jahre war sie soweit, um auch von den Parallel‑Denkern ausgebeutet zu werden. Doch nach wie vor nahmen sich nur wenige Pionierfirmen des Themas an. IBM selbst hatte Mitte der achtziger Jahre einige dieser neuen Kolosse gebaut, aber nur für interne Zwecke ‑ zur Entwicklung von neuen Mainframes. In den Anwendungen der kommerziellen Datenverarbeitung war Parallelprocessing noch nicht einmal ein Randthema.
Invention & Innovation. Es gehört zur Geschichte der kaufmännischen DV, dass die Technologie zwar mit ihrem ungemein schnellen Wandel akzeptiert wird, dass aber neue geistige Prinzipien sich nur sehr langsam durchsetzen. Experten sprechen davon, dass hier der Zyklus von der Invention bis zur Innovation mindestens 20 Jahre beträgt. Durch keine Maßnahme lässt er sich verkürzen ‑ allenfalls verlängern. Was die Anwender immer wieder zurückschreckt, sind die enormen Kosten, die eine solche Transformation nicht nur in der Umstellung ihrer Softwarebestände erzeugt, sondern auch bei der Schulung.
Dieses Trägheitsgesetz wurde in der Computerbranche von der IBM mit der Ankündigung der /360 erstmals in einen überwältigenden wirtschaftlichen Erfolg umgesetzt. So wurde die /360 sukzessive verbessert. Aus ihr wurde 1970 die /370 und schließlich, 1990, die /390. Firmen wie Intel oder Microsoft waren es dann, die davon nicht minder profitieren sollten. Mit kapitalintensiven Verbesserungsinnovationen triumphieren sie über diejenigen, die wissensintensive Neuerungen induzieren wollen. Man braucht sich dazu nur die DOS‑basierende Desktopwelt anzuschauen.
Das Innovationspatt. Das Von‑Neumann‑Prinzip bescherte zum Beispiel der Mutter aller Mainframes, der IBM, fette Margen, die jeden Entwicklungsaufwand bei der Weiterentwicklung von Hardware und Software der bipolaren Großrechner rechtfertigten, aber nur zu einem Bruchteil Geld für wirkliche Novitäten freimachte. Schaut man sich die Neuerungen aus den sechziger Jahren, so sind jene Innovationen am wenigsten auf dem Großrechner realisiert, die dem Benutzer am nächsten kommen. Hier aber ist die Aktion. , dass»Was wir uns wünschen, ist, dass die Großrechner nun auch die PCs in ihren Wirkungskreis mit einbeziehen«, fordert ICR‑Manager Obst.
Gerade im Augenblick größter Erfolge scheuen Unternehmensführer davor, sich auf einen etwaigen Trendbruch einzustellen, ihn sogar selbst zu inszenieren. Im Verhältnis zwischen IBM und ihren Kunden entstand so eine Situation der gegenseitigen Gefangennahme.
Quellen
[1] Bertolt Brecht, Gesammelte Werke Band 3, Frankfurt 1967: »Das Leben des Galilei«, Seite 1234
[2] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[3] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[4] Financial Times, 22.7.1982, Elaine Williams: »Major restructuring in processing«
[5] Financial Times, 25.6.91, Della Bradshaw: »An eastern breeze in the Med«
[6] New York Times, 10.2.93, Steve Lohr: »Mainframes aren't dead at all«
[7] Time, 13.6.94, Michael Meyer: »Rethinking your mainframe«
Die CMOS-Pyramide
Von Raimund Vollmer
»Es hat immer geheißen, die Gestirne sind an einem kristallenen Gewölbe angeheftet, dass sie nicht herunterfallen können. Jetzt haben wir Mut gefasst und lassen sie im Freien schweben, ohne Halt, und sie sind in großer Fahrt, gleich unseren Schiffen, ohne Halt und in großer Fahrt.«
Galileo Galilei in dem Schauspiel »Leben des Galilei« von Bertolt Brecht[1]
Tokio. Dienstag, 5. April 1994. Der wohl erste Landesfürst im Weltreich der IBM, der an diesem Tag den neuen Parallel Sysplex vorstellte, war Kakutaro Kitashiro, Präsident der IBM Japan. Und er nutzte natürlich den Zeitvorsprung, um die historische Wendemarke zu besetzen. »Seit der Entwicklung der ersten Mainframe‑Maschine der Welt, des Systems /360 vor 30 Jahren, ist dies heute die Ankündigung der innovativsten Produktfamilie«, erklärte er dem Publikum im zweitgrößten Mainframe‑Markt der Welt.[2] Und damit hatte er seinen Kunden suggeriert, dass die Neuentwicklung nun die nächsten 30 Jahre bestimmen würde.
So wurde jedenfalls die Botschaft aufgenommen. »Das Geschäft mit Mainframe‑Computer ist mit dem Aufkommen der Parallelrechner so gut wie beendet«, kommentierte Massahiko Ishino, Analyst beim japanischen Investmenthaus Yamaichi Research Institute of Securities & Economics.[3] Richtig. Aber das galt nur für das Innere der Rechner: die Prozessoren. Die Anwendungswelt kam ungeschoren davon.
Die rettende Initiative dazu, mit der dieses Wunderstück, die Gratwanderung zwischen neuer und alter Welt zu meistern sei, hat ihren Ursprung nicht in den High‑Tech‑Ländern Japan oder Amerika, sondern in Europa, präziser: in Deutschland, im Entwicklungslabor in Schönaich bei Böblingen. Es löste zuerst das Prozessor‑Dilemma und wies dann den Weg in die Parallelverarbeitung. Und so war dieser 5. April in erster Linie der Tag des Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH. Stolz konnte er in Deutschland verkünden: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Ende des Chipdilemmas. Das erste Problem, das er und seine Mannschaft lösten, war das Chip‑Dilemma. Das Zauberformel heißt CMOS/Complemtar Metall‑Oxyde Semiconductor). Es ist der Grundbaustein der Parallel‑Pyramide. Mit dieser Logik, die 1974 RCA erstmals im Bereich der Konsumentenelektronik verwendete, hatte die IBM 1986 nur Erfahrung im Bereich der massengefertigten Speicherchips. Das Labor in Schönaich, das damals für die Entwicklung des kleinen Mainframes IBM 9370 verantwortlich war, nutzte CMOS, um daraus erstmals einen Mikroprozessor zu zeugen, der /370‑kompatibel war. 1988 war das Problem gelöst. Die IBM 9370 wurde fortan mit diesem Prozessor bestückt.
Damit war ein gewaltiger Brückenschlag geglückt. Denn die bisherige Domäne der CMOS‑Welt war bis dahin der Desktop‑Markt gewesen, den sie mit äußerst preisgünstigen Prozessoren beglückte. Ja, sie waren es gewesen, die den Preis‑Leistungs‑Vergleich zwischen Mainframes und PCs ständig zugunsten der Desktops verschoben.
Die Entwicklungslabors in Poughkeepsie und Endicott sahen diesen Erfolg mit höchst gemischten Gefühlen. Hier hatte man die 9370 nie so richtig ernst genommen. Sie war der Lumpensammler in der Großrechnerwelt, der sich vornehmlich in exotischen Gefilden bewegte. Würde er als CMOS‑Ausleger nun in die Domänen der erwachsenen Mainframes vorstoßen, oder war er nichts anderes als eine Desktop‑/370?
Statt immer mehr Leistung in aufwendig zu entwickelnde Prozessor hineinzupressen, werden nun massengefertigte Mikroprozessoren dafür verwendet werden. Technisch bedeutet dies
- die Abkehr von energieintensiven bipolaren Chips (z.B. Emitter Coupled Logic)
- hin zu CMOS‑Halbleitern (Complementary Metal Oxide Semiconductor).
Vorstufen dieser Technologie wurden bereits in den frühen siebziger Jahren in Speicherbausteinen, den RAMs (Random Access Memories) verwendet. In den achtziger Jahren öffnete dann die CMOS‑Technologie das Tor zum Megabit‑Speicher. Mehr noch: sie eroberte das neue Feld der Hochleistungs‑Mikroprozessoren.
Was CMOS‑Chips auszeichnet, ist ihr im Vergleich zu den bipolaren Gegenstücken erheblich geringerer Energieverbrauch. Herbert Kircher, Chef der IBM Deutschland Entwicklungssysteme GmbH, berichtet, dass der Strombedarf um den »Faktor 10 niedriger ist« als in der bipolaren Welt, die mit ihren ECL‑Chips »gandenlos viel Energie verbraucht«. Den Vorteil der CMOS‑Technologie bekommen die Kunden in Heller & Pfennig zu spüren. Denn die »Stromrechnung ist ein wichtiger Teil der Systemkosten« (Kircher).
Packungsdichte. So können aber auch Schaltkreise auf engsten Raum gepackt werden, ohne dass die Gefahr einer Überhitzung besteht, der nur noch mit aufwendiger Wasserkühlung begegnet werden kann. Statt »10.000 oder 100.000 Transistorfunktionen« können in der CMOS‑Technologie Millionen zusammengepackt werden.
Entwicklungskosten. Obwohl der ECL basierende Einzelprozessor mit 60 MIPS mehr als doppelt so stark ist wie sein aus CMOS hergestelltes Gegenstück, schlägt dieser in puncto Wirtschaftlichkeit allemal seinen großen Bruder. Seine Entwicklung ist zehnmal preiswerter als bei ECL‑Auslegern.
Preis/Leistungs‑Verhältnis. Zudem kann das Preis‑Leistungsverhältnis bei ECL‑Chips pro Jahr nur um 15 Prozent gesteigert werden, bei den CMOS‑Ableger aber sind Sprünge von 40 Prozent drin ‑ nicht zuletzt dank Massenfertigung.
Leistungssprünge. Während sich bei ECL‑Rechnern die Leistung nur alle fünf Jahre verdoppelt, schaffen dies CMOS‑Computer alle zwei Jahre. So arbeitet Kircher bereits jetzt an dem CMOS‑Prozessor, der 1996 auf den Markt kommen wird.
Was dabei erstaunt, ist die Tatsache, dass diese Vorteile seit mehr als zehn Jahren bekannt sind. 1982 veröffentlichte die Marktforschung Strategic Inc. in London eine Studie, die voraussagte, dass spätestens gegen Ende unseres Jahrhundert 80 Prozent aller Chips auf CMOS basieren würden. Die Firmen müssten anfangen, im großen Stil ihre höchstintegrierte Schaltkreise nach diesem Verfahren zu entwickeln. Wer das nicht täte, würde Marktanteile verlieren.[4] Aber Firmen wie IBM glaubten, dass dies für alle anderen Märkte stimmen würde, nur nicht für Großrechner. Ein fataler Irrtum, der an die Vorzeit der /360 erinnert, als Gottkönig Watson Jr. mit einem Befehl durchsetzte, nur noch die Transistortechnik zu verwenden.
Natürlich ist es das Rechenprinzip der Parallelverarbeitung, dem die CMOS‑Generation es jetzt zu verdanken hat, dass sie mit einem geistigen Trick die Begrenzungen der Technik zu überwinden kann. Kurzum: sie nutzt den Hase‑Igel‑Effekt. Während in einem traditionellen Mainframe bis 1993 maximal zehn mächtige Prozessoren (ES/900‑9X2) kooperieren können, sind in den neuen Parallelrechner Dutzende von CPUs zu einer Einheit verknüpft. Aus den Einzelblöcken entsteht die CMOS‑Pyramide.
Neues Denken. Das hört sich simpel an. Man fragt sich: Warum entdeckte die kommerzielle DV die Parallelverarbeitung erst so spät? Der Hauptgrund liegt darin, dass sie auf der Softwareseite letztlich das Entstehen von radikal anderen Algorithmen erfordert. Das Programmierwissen hatte sich voll und ganz auf einer seriellen Sicht auf die Welt verschrieben. Das heißt: wollen die Anwendungsentwickler die Potentiale auch tatsächlich nutzen, müssen sie völlig umdenken. Dahinter steht ein Paradigmawechsel, der weitaus größer ist als IBMs Abschied in den sechziger Jahren von der Lochkarte (die damals intern und extern wahre Tumulte auslöste).
Die Ironie dabei: Die Programmierer müssen die Welt so sehen, wie sie sich heute in zunehmenden Maße (Schlagwort: Business Reengineering) organisiert ‑ in ihrer Gleichzeitigkeit. Das lässt sie zögern & zaudern, zumal sie beim Reengineering schon jetzt große Probleme haben. Sie entdecken, dass sie damit eine Pandora‑Büchse geöffnet haben. (Siehe Kasten: Voll erwischt)
Sollen sie dann auch noch das alles so umsetzen, dass die Möglichkeiten der Parallelverarbeitung voll nutzt, dann müssen sie mit noch mehr Überrschungen fertig werden. So werden 1994 im Markt der Parallelrechner gerade 600 Millionen Dollar weltweit umgesetzt, davon geht der Hauptteil in die technisch‑wissenschaftliche Welt. Im Vergleich dazu katapultierte sich zwischen 1962 und 1991 das stets hochprofitable Mainframe‑Geschäft von einer auf 30 Milliarden Dollar, um dann allerdings zu einer beispiellosen Talfahrt anzusetzen.[5]
Den Absturz auffangen und einen neuen Aufwärtstrend erzeugen ‑ so sieht die Aufgabe aus. Ist das überhaupt machbar?
Das Gesetz der Trägheit
Hürde & Bürde. Etwa 20 Jahre brauchte also die Idee des John von Neumann, bis sie sich kommerziell durchsetzte, und weitere 20 Jahre lang durfte sie ihren Erfolg voll auskosten. Heute stehen weltweit Anwendungsinvestitionen im Wert von 1.200 Milliarden Dollar hinter den Mainframes. Diese Hürde ist auch die Bürde: Nur eine alternative Technologie, die diesen immensen Aufwand an programmierten Unternehmenswissen in sich aufsaugen konnte, hat überhaupt eine Chance, in die Großrechner‑Phalanx einzubrechen. Und hier war lange Zeit weit & breit nichts zu sehen ‑ bis zu diesem 5. April 1994. Da verkündete Hug, dass der neue Parallel Sysplex »im hohen Umfang« kompatibel mit der Vergangenheit sei. Das heißt: der Anwendungsbestand, der allein hierzulande »einen Wert von 250 Milliarden Mark darstellt« (Hug), kann weitgehend übernommen werden.
Endlich scheint sich die Parallelverarbeitung eine Bahn zu brechen, ohne dabei sofort ein völlig neues Denken bei den Entwicklern zu erfordern. Damit wurde ein Signal gesetzt: »Das goldene Zeitalter der Mainframes, in dem große Rechner und IBM alles beherrschten, ist vorbei«. So lautete bereits im Februar 1993 das Urteil der New York Times, als einen Monat zuvor die ersten Gerüchte über den neuen »Superserver« in Umlauf kamen.[6] Ein gutes Jahr später konterte das amerikanische Nachrichtenmagazin Time: »Das Schwermetall wird weiter regieren.« Und weiter: »Die Dinosaurier sind weit davon entfernt, ausgelöscht zu werdenn.«[7]
Jetzt wurde deutlich: Seine Retter sind die Parallelrechner, die zugleich der letzte Abkömmling und der erste Systemüberwinder der /360‑Generation sind. Kircher, in dessen Verantwortungsbereich, dem Labor in Schönaich bei Böblingen, der Parallelrechner seine Geburtsstunde erlebte: »Wir läuten eine neue Phase der Großrechner ein.« Es wurde aber auch höchste Zeit.
Jahrzehntelang hatte der grandiose Aufstieg der Mainframes die Idee der Parallelverarbeitung überdeckt. Die Technologie war schlichtweg noch nicht so weit, um den neuen Denkansatz in die Rechenzentren zu tragen.
Aber dann nahm die Technologie mit dem Aufkommen der Mikroprozessoren und der Speicherchips mächtig an Fahrt auf. Zu Beginn der achtziger Jahre war sie soweit, um auch von den Parallel‑Denkern ausgebeutet zu werden. Doch nach wie vor nahmen sich nur wenige Pionierfirmen des Themas an. IBM selbst hatte Mitte der achtziger Jahre einige dieser neuen Kolosse gebaut, aber nur für interne Zwecke ‑ zur Entwicklung von neuen Mainframes. In den Anwendungen der kommerziellen Datenverarbeitung war Parallelprocessing noch nicht einmal ein Randthema.
Invention & Innovation. Es gehört zur Geschichte der kaufmännischen DV, dass die Technologie zwar mit ihrem ungemein schnellen Wandel akzeptiert wird, dass aber neue geistige Prinzipien sich nur sehr langsam durchsetzen. Experten sprechen davon, dass hier der Zyklus von der Invention bis zur Innovation mindestens 20 Jahre beträgt. Durch keine Maßnahme lässt er sich verkürzen ‑ allenfalls verlängern. Was die Anwender immer wieder zurückschreckt, sind die enormen Kosten, die eine solche Transformation nicht nur in der Umstellung ihrer Softwarebestände erzeugt, sondern auch bei der Schulung.
Dieses Trägheitsgesetz wurde in der Computerbranche von der IBM mit der Ankündigung der /360 erstmals in einen überwältigenden wirtschaftlichen Erfolg umgesetzt. So wurde die /360 sukzessive verbessert. Aus ihr wurde 1970 die /370 und schließlich, 1990, die /390. Firmen wie Intel oder Microsoft waren es dann, die davon nicht minder profitieren sollten. Mit kapitalintensiven Verbesserungsinnovationen triumphieren sie über diejenigen, die wissensintensive Neuerungen induzieren wollen. Man braucht sich dazu nur die DOS‑basierende Desktopwelt anzuschauen.
Das Innovationspatt. Das Von‑Neumann‑Prinzip bescherte zum Beispiel der Mutter aller Mainframes, der IBM, fette Margen, die jeden Entwicklungsaufwand bei der Weiterentwicklung von Hardware und Software der bipolaren Großrechner rechtfertigten, aber nur zu einem Bruchteil Geld für wirkliche Novitäten freimachte. Schaut man sich die Neuerungen aus den sechziger Jahren, so sind jene Innovationen am wenigsten auf dem Großrechner realisiert, die dem Benutzer am nächsten kommen. Hier aber ist die Aktion. , dass»Was wir uns wünschen, ist, dass die Großrechner nun auch die PCs in ihren Wirkungskreis mit einbeziehen«, fordert ICR‑Manager Obst.
Gerade im Augenblick größter Erfolge scheuen Unternehmensführer davor, sich auf einen etwaigen Trendbruch einzustellen, ihn sogar selbst zu inszenieren. Im Verhältnis zwischen IBM und ihren Kunden entstand so eine Situation der gegenseitigen Gefangennahme.
Quellen
[1] Bertolt Brecht, Gesammelte Werke Band 3, Frankfurt 1967: »Das Leben des Galilei«, Seite 1234
[2] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[3] Nikkei Weekly, 11.3.94: »Parallel‑processors put IBM ahead of the game«
[4] Financial Times, 22.7.1982, Elaine Williams: »Major restructuring in processing«
[5] Financial Times, 25.6.91, Della Bradshaw: »An eastern breeze in the Med«
[6] New York Times, 10.2.93, Steve Lohr: »Mainframes aren't dead at all«
[7] Time, 13.6.94, Michael Meyer: »Rethinking your mainframe«
Dienstag, 7. April 2009
IBM /360: Erinnerungen an die Zukunft
IBM Presseinformation
45 Jahre IBM Mainframe
Stuttgart, 04.03.2009: Der IBM Mainframe feiert dieses Jahr auf der CeBIT
seinen 45. Geburtstag. Die Ankündigung des IBM Großrechners System /360 im
Jahr 1964 stellt einen Meilenstein in der Geschichte der
Informationstechnologie dar.
Das wichtigste Designkriterium des System/360 war die Schaffung eines
universellen Rechners für praktisch alle Einsatzgebiete - also ein General
Purpose-System. Daher auch der ursprüngliche Name: 360 Grad des vollen
Kreises. Dank der Innovationsfähigkeit seiner Entwickler ist der Mainframe
seit 45 Jahren die zentrale Plattform für Verfügbarkeit, Sicherheit,
Skalierbarkeit und Wirtschaftlichkeit. Unternehmen schätzen zudem die hohe
Energieeffizienz und die Flexibilität des Großrechners. Damit kann er
einen wichtigen Beitrag für die Dynamisierung von IT-Infrastrukturen
leisten.
Die Ankündigung des IBM System/360 im April 1964 erweiterte die
Einsatzmöglichkeiten von Informationstechnologie für Unternehmen
maßgeblich und hatte dadurch Auswirkungen auf die meisten
Geschäftsprozesse. Die Technologie des IBM Großrechners legte den
Grundstein für viele weitere Entwicklungen in der Informationstechnologie,
wie zum Beispiel den Boom des PCs in den 80er Jahren, das Wachstum des
Internets, elektronische Datenbanken oder auch Transaktionssysteme, die
heute die Grundlage zahlreicher Geschäftsmodelle sind.
Heute vertrauen Kunden zahlreicher Industriezweige auf die
Mainframe-Plattform als Basis für ihre wichtigsten Unternehmensdaten und
-anwendungen und zum sicheren Betrieb ihrer Geschäftstransaktionen. So
nutzen zum Beispiel die Top 50 der Banken weltweit und 22 der 25 größten
Einzelhändler in den USA den IBM Mainframe. Die Marktakzeptanz der IBM
Mainframes führte dazu, dass das IBM System z seinen Marktanteil in diesem
Jahrzehnt verdoppeln konnte, so der IDC High-End Server Quarterly Tracker.
(1) Ausschlaggebend für die Entscheidung von Kunden für den IBM Mainframe
sind auch die beispiellosen Virtualisierungsmöglichkeiten unter anderem
für Konsolidierungsprojekte. Für Mainframes gibt es Virtualisierung seit
1971 und seitdem findet eine rasante Entwicklung auf diesem Gebiet statt.
Verglichen hiermit steht die Virtualisierung in manchen anderen Bereichen
noch ganz am Anfang.
Ursula Wagner, Mainframe Platform Leader IBM Deutschland, erläutert:
?Mainframes können in der IT-Infrastruktur von Unternehmen eine zentrale
Rolle spielen. Insbesondere die seit Jahrzehnten bewährten Eigenschaften
rund um Sicherheit, Skalierbarkeit und Verfügbarkeit bei hoher
Wirtschaftlichkeit haben Großrechner zum Rückgrat der IT in vielen
Bereichen gemacht. Moderne Anwendungen, das Web2.0-Umfeld sowie die
Entwicklung zu dynamischen und serviceorientierten IT-Infrastrukturen bin
hin zu Clouds bringen Stärken von Mainframes neu zur Geltung, da sich über
Virtualisierung und Provisioning die vorhandenen Infrastrukturen mit neuen
Projekten weiter optimieren lassen.?
Auch in Deutschland kann IBM Mainframe-Neukunden verzeichnen. Hierzu
gehört zum Beispiel das Beratungsunternehmen Bearing Point. Die
Technologie- und Managementberatung BearingPoint GmbH ist ein wichtiges
Cosultingunternehmen in Deutschland und ein weltweit operierender System
Integrator. BearingPoint entschied 2008 in Deutschland einen eigenen
Mainframe anzuschaffen, um Entwicklungsaufgaben und Lösungen im Software-
und Anwendungsbereich für ihre Mainframe-Kunden effektiver zu realisieren.
Ein weiterer Mainframe-Neukunde ist die EFiS Financial Solutions AG aus
Frankfurt. Der Zahlungsverkehr-Spezialist beauftragte den Darmstädter IBM
Premium Partner PROFI Engineering Systems AG kürzlich mit der Installation
des IBM System z. Von der Umstellung ihres IT-Systems erwartet EFiS
erhöhte Sicherheit, Skalierbarkeit und Verarbeitungsleistung.
Ausschlaggebend für die Entscheidung für einen Mainframe waren außerdem
die Energieersparnis und optimale Ressourcennutzung im Sinne von Green IT.
Die Finanz Informatik (FI) setzt auch in Zukunft auf IBM
Großrechner-Technologie. Kürzlich verlängerte der IT-Service-Provider der
Sparkassen-Finanzgruppe in Deutschland ihre strategische
Partnerschaftsvereinbarung mit IBM um fünf Jahre. Die Transformation
existierender Rechenzentren der FI ermöglicht eine Reduzierung der
IT-Kostenstruktur, eine Verringerung des Energiebedarfs und eine
Performanceverbesserung der gesamten IT-Infrastruktur.
Als Vereinigung von Unternehmen, Organisationen und Einzelpersonen, die
Information und Communication Technology (ICT)-Anwendungen auf der Basis
von IBM-Architekturen betreiben, begleitet die GUIDE SHARE EUROPE (GSE)
den Mainframe von Anfang an. Dr. Michael Weiß, Regional Manager Germany
der Interessensvertretung GSE: "Aus der IT vieler unserer großen
GSE-Mitgliedsunternehmen ist der Großrechner auch heute, nach 45 Jahren
IBM Mainframe, nicht wegzudenken. Unsere Anwender schätzen am Mainframe
neben der hohen Verfügbarkeit die Auslastbarkeit, die Stabilität und den
sehr hohen Automationsgrad. Diese Faktoren verhelfen der Plattform nicht
nur unter IT-Service-Continuity-Management (ITSCM)-Gesichtpunkten zu einem
Alleinstellungsmerkmal im Businessumfeld. Neue Mainframe-Kunden nutzen den
Mainframe vornehmlich als Host für z/LINUX-Partitionen. Dies rechnet sich
auch finanziell."
Mit der großen Marktakzeptanz der IBM Mainframes gingen folgende
Entwicklungen einher:
Das Wachstum der Mainframe-Anwendungen: 600 neue oder weiterentwickelte
Anwendungen wurden in den letzten Jahrenvorgestellt. Damit gibt es mehr
als 5.000 Anwendungen.
Mehr als 1.400 ISVs (Independant Software Vendors) entwickeln Anwendungen
für IBM System z Mainframes.
Mehr als 130 IBM Business Partner und Systemintegratoren sind als
Verkäufer der IBM System z Mainframes zertifiziert.
Mehr als 500 Universitäten weltweit arbeiten mit IBM zusammen, um die
Mainframe-Ausbildung voranzutreiben. 2004 waren es noch 24 Universitäten.
In den letzten vier Jahren haben mehr als 50.000 Studenten an Kursen
teilgenommen, um ihre Mainframe-Skills zu erweitern.
Auch Deutschland spielte bei der Entwicklung der Mainframes von Anfang an
eine wichtige Rolle. Im deutschen IBM Entwicklungszentrum in Böblingen
entwickeln Experten seit Gründung 1953 Hardware, Betriebssysteme und
Steuerungssoftware für Großrechner. Zu den bedeutenden Innovationen in der
über vierzigjährigen Produktgeschichte des Mainframes zählen die
Entwicklung der energiesparenden
Complementary-Metal-Oxide-Semiconductor-Technologie (CMOS) für den
Großrechner sowie die erfolgreiche Implementierung des offenen
Betriebssystems Linux auf einem Mainframe. Linux sowie CMOS sind längst
zum Standard bei Großrechnern geworden. Bereits das Systemdesign des
damals kleinsten Mainframes der S/360 Reihe stammte aus Böblingen. Heute
kommen beträchtliche Anteile der aktuellen und auch zukünftiger Mainframes
aus dem deutschen IBM Forschungs- und Entwicklungszentrum. Dies gilt
sowohl für Hardware, als auch für Firmware, mehrere Betriebssysteme und
nicht zuletzt auch für verschiedene Softwareprodukte im Mainframe-Umfeld,
für die die weltweite Entwicklungsverantwortung in Böblingen liegt.
Weitere Informationen zum IBM Mainframe unter
http://www-03.ibm.com/systems/de/z/.
(1) According to IDC's high-end +$250K servers quarterly tracker results
from 3Q 2000 to 2Q 2008. IDC 2Q08 WW Server Tracker.
45 Jahre IBM Mainframe
Stuttgart, 04.03.2009: Der IBM Mainframe feiert dieses Jahr auf der CeBIT
seinen 45. Geburtstag. Die Ankündigung des IBM Großrechners System /360 im
Jahr 1964 stellt einen Meilenstein in der Geschichte der
Informationstechnologie dar.
Das wichtigste Designkriterium des System/360 war die Schaffung eines
universellen Rechners für praktisch alle Einsatzgebiete - also ein General
Purpose-System. Daher auch der ursprüngliche Name: 360 Grad des vollen
Kreises. Dank der Innovationsfähigkeit seiner Entwickler ist der Mainframe
seit 45 Jahren die zentrale Plattform für Verfügbarkeit, Sicherheit,
Skalierbarkeit und Wirtschaftlichkeit. Unternehmen schätzen zudem die hohe
Energieeffizienz und die Flexibilität des Großrechners. Damit kann er
einen wichtigen Beitrag für die Dynamisierung von IT-Infrastrukturen
leisten.
Die Ankündigung des IBM System/360 im April 1964 erweiterte die
Einsatzmöglichkeiten von Informationstechnologie für Unternehmen
maßgeblich und hatte dadurch Auswirkungen auf die meisten
Geschäftsprozesse. Die Technologie des IBM Großrechners legte den
Grundstein für viele weitere Entwicklungen in der Informationstechnologie,
wie zum Beispiel den Boom des PCs in den 80er Jahren, das Wachstum des
Internets, elektronische Datenbanken oder auch Transaktionssysteme, die
heute die Grundlage zahlreicher Geschäftsmodelle sind.
Heute vertrauen Kunden zahlreicher Industriezweige auf die
Mainframe-Plattform als Basis für ihre wichtigsten Unternehmensdaten und
-anwendungen und zum sicheren Betrieb ihrer Geschäftstransaktionen. So
nutzen zum Beispiel die Top 50 der Banken weltweit und 22 der 25 größten
Einzelhändler in den USA den IBM Mainframe. Die Marktakzeptanz der IBM
Mainframes führte dazu, dass das IBM System z seinen Marktanteil in diesem
Jahrzehnt verdoppeln konnte, so der IDC High-End Server Quarterly Tracker.
(1) Ausschlaggebend für die Entscheidung von Kunden für den IBM Mainframe
sind auch die beispiellosen Virtualisierungsmöglichkeiten unter anderem
für Konsolidierungsprojekte. Für Mainframes gibt es Virtualisierung seit
1971 und seitdem findet eine rasante Entwicklung auf diesem Gebiet statt.
Verglichen hiermit steht die Virtualisierung in manchen anderen Bereichen
noch ganz am Anfang.
Ursula Wagner, Mainframe Platform Leader IBM Deutschland, erläutert:
?Mainframes können in der IT-Infrastruktur von Unternehmen eine zentrale
Rolle spielen. Insbesondere die seit Jahrzehnten bewährten Eigenschaften
rund um Sicherheit, Skalierbarkeit und Verfügbarkeit bei hoher
Wirtschaftlichkeit haben Großrechner zum Rückgrat der IT in vielen
Bereichen gemacht. Moderne Anwendungen, das Web2.0-Umfeld sowie die
Entwicklung zu dynamischen und serviceorientierten IT-Infrastrukturen bin
hin zu Clouds bringen Stärken von Mainframes neu zur Geltung, da sich über
Virtualisierung und Provisioning die vorhandenen Infrastrukturen mit neuen
Projekten weiter optimieren lassen.?
Auch in Deutschland kann IBM Mainframe-Neukunden verzeichnen. Hierzu
gehört zum Beispiel das Beratungsunternehmen Bearing Point. Die
Technologie- und Managementberatung BearingPoint GmbH ist ein wichtiges
Cosultingunternehmen in Deutschland und ein weltweit operierender System
Integrator. BearingPoint entschied 2008 in Deutschland einen eigenen
Mainframe anzuschaffen, um Entwicklungsaufgaben und Lösungen im Software-
und Anwendungsbereich für ihre Mainframe-Kunden effektiver zu realisieren.
Ein weiterer Mainframe-Neukunde ist die EFiS Financial Solutions AG aus
Frankfurt. Der Zahlungsverkehr-Spezialist beauftragte den Darmstädter IBM
Premium Partner PROFI Engineering Systems AG kürzlich mit der Installation
des IBM System z. Von der Umstellung ihres IT-Systems erwartet EFiS
erhöhte Sicherheit, Skalierbarkeit und Verarbeitungsleistung.
Ausschlaggebend für die Entscheidung für einen Mainframe waren außerdem
die Energieersparnis und optimale Ressourcennutzung im Sinne von Green IT.
Die Finanz Informatik (FI) setzt auch in Zukunft auf IBM
Großrechner-Technologie. Kürzlich verlängerte der IT-Service-Provider der
Sparkassen-Finanzgruppe in Deutschland ihre strategische
Partnerschaftsvereinbarung mit IBM um fünf Jahre. Die Transformation
existierender Rechenzentren der FI ermöglicht eine Reduzierung der
IT-Kostenstruktur, eine Verringerung des Energiebedarfs und eine
Performanceverbesserung der gesamten IT-Infrastruktur.
Als Vereinigung von Unternehmen, Organisationen und Einzelpersonen, die
Information und Communication Technology (ICT)-Anwendungen auf der Basis
von IBM-Architekturen betreiben, begleitet die GUIDE SHARE EUROPE (GSE)
den Mainframe von Anfang an. Dr. Michael Weiß, Regional Manager Germany
der Interessensvertretung GSE: "Aus der IT vieler unserer großen
GSE-Mitgliedsunternehmen ist der Großrechner auch heute, nach 45 Jahren
IBM Mainframe, nicht wegzudenken. Unsere Anwender schätzen am Mainframe
neben der hohen Verfügbarkeit die Auslastbarkeit, die Stabilität und den
sehr hohen Automationsgrad. Diese Faktoren verhelfen der Plattform nicht
nur unter IT-Service-Continuity-Management (ITSCM)-Gesichtpunkten zu einem
Alleinstellungsmerkmal im Businessumfeld. Neue Mainframe-Kunden nutzen den
Mainframe vornehmlich als Host für z/LINUX-Partitionen. Dies rechnet sich
auch finanziell."
Mit der großen Marktakzeptanz der IBM Mainframes gingen folgende
Entwicklungen einher:
Das Wachstum der Mainframe-Anwendungen: 600 neue oder weiterentwickelte
Anwendungen wurden in den letzten Jahrenvorgestellt. Damit gibt es mehr
als 5.000 Anwendungen.
Mehr als 1.400 ISVs (Independant Software Vendors) entwickeln Anwendungen
für IBM System z Mainframes.
Mehr als 130 IBM Business Partner und Systemintegratoren sind als
Verkäufer der IBM System z Mainframes zertifiziert.
Mehr als 500 Universitäten weltweit arbeiten mit IBM zusammen, um die
Mainframe-Ausbildung voranzutreiben. 2004 waren es noch 24 Universitäten.
In den letzten vier Jahren haben mehr als 50.000 Studenten an Kursen
teilgenommen, um ihre Mainframe-Skills zu erweitern.
Auch Deutschland spielte bei der Entwicklung der Mainframes von Anfang an
eine wichtige Rolle. Im deutschen IBM Entwicklungszentrum in Böblingen
entwickeln Experten seit Gründung 1953 Hardware, Betriebssysteme und
Steuerungssoftware für Großrechner. Zu den bedeutenden Innovationen in der
über vierzigjährigen Produktgeschichte des Mainframes zählen die
Entwicklung der energiesparenden
Complementary-Metal-Oxide-Semiconductor-Technologie (CMOS) für den
Großrechner sowie die erfolgreiche Implementierung des offenen
Betriebssystems Linux auf einem Mainframe. Linux sowie CMOS sind längst
zum Standard bei Großrechnern geworden. Bereits das Systemdesign des
damals kleinsten Mainframes der S/360 Reihe stammte aus Böblingen. Heute
kommen beträchtliche Anteile der aktuellen und auch zukünftiger Mainframes
aus dem deutschen IBM Forschungs- und Entwicklungszentrum. Dies gilt
sowohl für Hardware, als auch für Firmware, mehrere Betriebssysteme und
nicht zuletzt auch für verschiedene Softwareprodukte im Mainframe-Umfeld,
für die die weltweite Entwicklungsverantwortung in Böblingen liegt.
Weitere Informationen zum IBM Mainframe unter
http://www-03.ibm.com/systems/de/z/.
(1) According to IDC's high-end +$250K servers quarterly tracker results
from 3Q 2000 to 2Q 2008. IDC 2Q08 WW Server Tracker.
Abonnieren
Posts (Atom)