Pressemitteilung
Neue IBM Software für System-z-Großrechner verbessert das
Anwendungsmanagement
Neue Möglichkeiten zur IT-Kostensenkung im Transaction Management, bei der
Anwendungswartung und im Systems Management
Armonk/Ehningen, 19.11.2009: IBM (NYSE: IBM) hat heute zehn neue
Software-Produkte angekündigt, die Unternehmen dabei unterstützen, die
Kosten für das Management von Anwendungen zu senken. Die Software
optimiert den System-z-Großrechner für zusätzliche Workloads, wie zum
Beispiel Datenanalyse, kollaborative Anwendungsentwicklung,
Anwendungswartung und weitere zentrale Geschäftsprozesse.
Die System-z-Plattform ist vor allem wegen ihrer
Konsolidierungsmöglichkeiten und der hohen Kosteneffizienz beliebt. IBM
und zahlreiche Software-Anbieter haben deswegen die Bandbreite an neuen
Workloads für den Mainframe durch etwa 3.800 z/OS-basierte und etwa 3.000
Linux-basierte Anwendungen stark vorangetrieben. Die Fähigkeit des
Mainframes, viele Anwendungs-Services auf einem einzigen System
bereitzustellen, verhilft dem Großrechner zu sehr geringen
Anwendungskosten pro Nutzer. Niedrige Anwendungskosten sind ein
entscheidender Erfolgsfaktor für Unternehmen, die vielfältige Anwendungen
für ihren Geschäftsbetrieb einsetzen.
Die neuen Produkte erstrecken sich über das gesamte IBM Software-Portfolio
und bieten System-z-Kunden eine Reihe von Vorteilen wie zum Beispiel
verbesserte Konnektivität, Produktivität und Sicherheit für Anwendungen
sowie verbessertes Datenmanangement.
Die neuen Angebote ergänzen die kürzlich angekündigte IBM System z
Solution Editions. Diese sieben integrierten Pakete mit Hardware, Software
und Services unterstützen Unternehmen dabei, neue Workloads wie Data
Warehousing, elektronische Zahlungssysteme und Disaster Recovery leichter
auf der Großrechnerplattform einzusetzen.
Folgende Produkte unterstützen Kunden dabei, System z als
High-Performance-Plattform für kritische Geschäftsprozesse mit hoher
Transaktionsmenge wirkungsvoll einzusetzen:
IMS 11 bietet direkten SQL-Zugang zu IMS-Daten von jeder verteilten
Plattform. Dies vereinfacht und beschleunigt die Verbindung von Daten und
Anwendungen. Gleichzeitig erleichtert es die Datenreplizierung und
Veränderungen in der Datenerfassung. Durch einen verbesserten Java-Support
können jetzt noch mehr Softwareentwickler IMS-Anwendungen und
Business-Services unterstützen.
Zu den neuen WebSphere-Produkten, die die Verwaltung von
Geschäftsprozessen, die Interkonnektivität und die Integration verbessern,
gehören die IBM Problem Determination Tools v10, der WebSphere Process
Server für z/OS V7 und IBM WebSphere ILOG Business Rule Management Systems
. Sie wurden speziell dafür entwickelt, Kunden dabei zu unterstützen, ihre
Produktivität, ihre Sicherheit und ihr Datenmanagement zu verbessern.
Gleichzeitig können die Produkte Kunden dabei unterstützen, ihre
Wettbewerbsfähigkeit zu erhöhen, indem sie ihre Geschäftsprozesse mit
Kunden, Zulieferern, Mitarbeitern und Geschäftspartnern flexibler
integrieren. Weitere Informationen sowie eine komplette Liste der neuen
WebSphere-Produkte unter www.ibm.com/smartwork/businessagility.
Folgende Produkte helfen Kunden dabei, die Kosten für Anwendungswartung zu
senken:
IBM Rational Developer für System z version 7.6 bietet eine moderne
GUI-Entwicklungsumgebung, um die Produktivität der Entwickler zu steigern
und die Kosten für die Wartung und die Erstellung von Anwendungen für
mehrere Plattformen zu senken. Das neue Angebot macht die Plattform für
junge Fachkräfte attraktiv und konsolidiert die Entwicklung von
unterschiedlichen Sprachen auf eine einzige Umgebung. Gleichzeitig kann es
die Prozessorlast um bis zu 50 Prozent senken und so deutliche
Budgeteinsparungen ermöglichen.
IBM Rational Team Concert for System z version 2.0 setzt ein neues
gemeinsames Ablagesystem ein, um Teams dabei zu unterstützen, leichter
zusammen zu arbeiten, Ressourcen gemeinsam zu nutzen, Prozesse zu
automatisieren und Software schneller zu liefern. Die Software verkürzt
Antwortzeiten und spart Kosten ein, indem sie verteilte Infrastrukturen
von Entwicklungsteams konsolidiert und die Softwareentwicklung über
verschiedene Plattformen hinweg automatisiert, was besonders für
Anwendungen mit verschiedenen Klassen wichtig ist.
Ein verbessertes Set von IBM Rational Compilern für C/C++, COBOL und PL/I
reduziert die Leistungsanforderungen von Anwendungen. Gleichzeitig
steigert es die Produktivität der Entwickler und senkt sowohl die
Kapitalkosten als auch die gesamten Entwicklungskosten.
Folgende Produkte unterstützen Kunden dabei, eine bessere Übersicht über
Unternehmensressourcen zu gewinnen und die Kosten für die
Netzwerkverwaltung zu senken:
Tivoli Asset Discovery for z/OS entfernt ungenutzte und veraltete Software
und trägt dazu bei, die Softwarenutzung systematisch zu erfassen, um
effizienter für die Zukunft planen zu können.
IBM Tivoli NetView für z/OS 5.4 verbessert die Netzwerk- und
Automatisierungskontrolle für Rechenzentren und Change-Management. Die
Software bietet verbessertes Service-Delivery-Management und system-weites
Ereignismanagement. Sie vermittelt ein Verständnis dafür, wie
Netzwerkverfügbarkeit und Events das Geschäft beeinflussen und hilft
Kunden, intelligentere und automatisiertere Systeme bereitzustellen.
IBM Tivoli zSecure bietet eine Sicherheitslösung für den Mainframe für
automatisierte Analyse, das Reporting von Ereignissen und
Compliance-Dashboards. Die Lösung ermöglicht es Unternehmen,
Revisionskosten zu senken und intelligentere kosteneffizientere Systeme zu
betreiben.
Weitere Informationen unter www.ibm.com/mainframe (System z), unter
www.ibm.com/software/os/systemz (System-z-Software
Montag, 23. November 2009
Donnerstag, 22. Oktober 2009
IBMs Dynamic Infrastructure
IBM kündigt neue Software für das Rechenzentrumsmanagement an
System Pooling: IBM Systems DirectorVM Control verwaltet unterschiedliche physische und virtualisierte Plattformen von x86 bis zum Mainframe, Speicher und Netzwerk von einem zentralen Punkt aus / neue Anwender im Rahmen des IBM Dynamic Infrastructure-Konzepts
Armonk/Ehningen, 21.10.2009: IBM (NYSE: IBM) hat heute neue Software für das Management von Rechenzentren angekündigt, die es ermöglicht, die Betriebskosten deutlich zu reduzieren und gleichzeitig den Zeitaufwand für die Implementierung neuer Anwendungen von Wochen auf Minuten zu senken.
Die neue IBM Systems Director VMControl Enterprise Edition hat strategische Bedeutung und unterscheidet sich grundlegend von anderen Systems-Management-Angeboten, weil sie es Unternehmen jetzt erstmals ermöglicht, von einem einzigen Punkt aus unterschiedliche IT-Systeme und Virtualisierungstechnologien zu kontrollieren. Die Software kann UNIX/Linux, den Mainframe, x86- und Speicher-Systeme sowie Netzwerke einbinden.
VMControl erlaubt es, Kombinationen aus physischen und virtuellen Servern als Einheit zu verwalten. Dieser Ansatz – System Pooling genannt – erweitert die Vorteile von Virtualisierung: Unternehmensrechenzentren werden dabei unterstützt, ihre komplexen Verwaltungsfunktionen zu vereinfachen und die Nutzung kritischer Ressourcen wie CPU, Arbeitsspeicher und Storage besser zu verteilen und zu priorisieren.
VMControl unterstützt Unternehmen, die sich für Virtualisierung – die Erstellung mehrerer virtueller Server oder Speichersysteme auf einem einzigen physischen System - entschieden haben, um die Infrastrukturkosten zu senken. Dabei müssen sie sich jedoch neuen Hürden stellen, wenn sie versuchen, verschiedene Unternehmensteile oder Geschäftsprozesse zu verwalten, die auf unterschiedlichen Plattformen mit einer jeweils eigenen Virtualisierungstechnologie betrieben werden.
Die zentralisierte Kontrolle heterogener Umgebungen bringt neue Intelligenz in die Rechenzentrumsoperationen. Unternehmen können ihre immensen Informationspools und Rechenressourcen verwalten und sie den Anwendungen zuweisen, die sie gerade benötigen. Das verbessert nicht nur die generelle Auslastung der IT-Infrastruktur, um Anschaffungs-, Betriebs- und Energiekosten zu senken. Es steigert auch die Verfügbarkeit von Anwendungen und bietet den IT-Verantwortlichen die nötige Flexibilität, um die neuen Anforderungen durch die Flut an Daten, die aus der Vernetzung von Endgeräten entsteht, in den Griff zu bekommen.
VMControl kann außerdem die Implementierung neuer Bereitstellungsmodelle für IT, wie zum Beispiel Cloud Computing, beschleunigen, durch die Informations- und Rechenressourcen von außen bezogen werden können.
Zusammen mit der IBM Tivoli Software hilft das neue Produkt Unternehmen dabei, Services zu verbessern und Kosten und Risiken zu reduzieren. IBM hat heute eine neue Version des Tivoli Provisioning Manager angekündigt, die eine verbesserte Automatisierung der manuellen Aufgaben beim Provisioning und bei der Konfigurierung von Servern, Betriebssystemen, Middelware, Software-Anwendungen, Speicher- und Netzwerkgeräten bietet.
Unabhängig davon, ob Unternehmen IT-Leistungen aus einer Cloud beziehen oder IT-Leistungen innerhalb ihres Rechenzentrums als Cloud-Services liefern wollen, machen das Ausmaß und die Geschwindigkeit des Datenwachstums sowie der permanente Druck, mit weniger Ressourcen mehr zu erreichen, VMControl zu einem wirkungsvollen Instrument für Rechenzentren.
Vorteile von VMControl:
Kürzere Antwortzeiten für Geschäftsanforderungen: Weil VMControl die Anforderungen an die technischen Fähigkeiten reduziert und die Anzahl der Werkzeuge und Aufgaben verringert, die benötigt werden, um neue Workloads zu implementieren, können Unternehmen schnelle Self-Service-Implementierungen anbieten, die innerhalb von Minuten statt Wochen zu bewältigen sind, und gleichzeitig die Kontrolle über ihre IT-Ressourcen behalten. VMControl bietet Unternehmen die Möglichkeit, sich an sich verändernde Geschäftsanforderungen anzupassen und neue und unterschiedliche Arten von Workloads unter Einhaltung der Service-Level-Vereinbarungen zu unterstützen.
Eine effizientere Nutzung der Ressourcen: Unternehmen würden ohne VMControl für die Konfigurierung, den Betrieb und die Überwachung physischer und virtueller Ressourcen über mehrere Plattformen hinweg mehr als 72 unterschiedliche Verwaltungsmethoden benötigen. Der Einkauf, die Erstellung und die Wartung verteilter Verwaltungstools binden erhebliche Teile des IT-Budgets. VMControl kann die Zahl der Verwaltungstools auf eines senken und die Betriebskosten dadurch halbieren.
Sichtbarkeit, Konsistenz und Planbarkeit von Operationen: VMControl bietet weitergehende Möglichkeiten für Monitoring, Wartung und Gewährleistung von Service-Levels, die für verschiedene Workloads im Pool der IT-Ressourcen benötigt werden, als herkömmliche Angebote. Es kann also dabei helfen, Systemprobleme vorauszusagen und auf sie zu reagieren. Indem Workloads von betroffenen Systemen wegbewegt werden, kann VMControl sicherstellen, dass Workloads die Verfügbarkeit von Anwendungen beibehalten, und ungeplante Ausfallzeiten reduzieren sowie geplante Ausfallzeiten des Betriebs verhindern.
Smartere Systeme: Die Fähigkeit von VMControl, Workloads dynamisch zu verschieben, und dynamische Anpassungen vorzunehmen, ermöglicht eine effizientere Auslastung von IBM Systemen, senkt ihren Energieverbrauch für Rechenleistung und Kühlung und bietet eine flexiblere und belastbarere Infrastruktur.
Systems Director VMControl unterstützt PowerVM und z/VM von IBM sowie x86-Virtualisierungstechnologien wie VMWare, Hyper-V und x86-Virtualisierungstechnologien, die auf offenen Standards basieren. Es wird im Dezember für IBM Power Systems mit AIX verfügbar sein. Die Unterstützung von x86- und Unix-Systemen von IBM und Wettbewerbern ist für 2010 geplant.
Aktuelle Anwenderbeispiele für IBM Dynamic Infrastructure-Lösungen:
Seit der Einführung des IBM Dynamic Infrastructure-Blueprints haben bereits viele Unternehmen den Weg hin zu einer dynamischeren IT-Infrastruktur beschritten. Einige aktuelle Beispiele:
Die Rotkäppchen-Mumm Sektkellereien können auf umsatz- und wachstumsstarke Jahre zurückblicken – auch in Zukunft soll es für das Unternehmen im Sekt- und Spirituosenmarkt weiter prickeln. Dabei unterstützt Rotkäppchen eine dynamische IT-Infrastruktur von IBM, die sich an neue Anforderungen flexibel, zuverlässig und ohne personellen Mehraufwand anpassen lässt.
Im Hinblick auf das starke Wachstum und die Akquisitionsstrategie von Rotkäppchen – sich gemeinsam mit starken Marken und Unternehmen weiter zu entwickeln – benötigte das Unternehmen eine flexible und dynamische IT-Infrastruktur, die in Zukunft mit dem Unternehmen mitwachsen sollte. Außerdem entsprachen Hard- und Software nicht mehr den gestiegenen Anforderungen an Funktionalität, Leistungsfähigkeit und Verfügbarkeit. Themenfelder, mit denen die IT in diesem Zusammenhang konfrontiert wurde, waren eine strategische Neuausrichtung im ERP-Umfeld, eine innerhalb kurzer Zeit nahezu doppelt so hohe Nutzerzahl sowie erhöhte Anforderungen an die Verfügbarkeit der Systeme durch die Ausweitung der Produktion auf 3-Schicht-Betrieb.
Gemeinsam mit dem IBM SAP Competence Center in Walldorf hat das Unternehmen die Hard- und Softwareumgebung intensiv diskutiert und entschied, die SAP-Implementierung auf der bewährten Hardwareplattform Power Systems Server mit IBM i vorzunehmen.
Das Potsdam-Institut für Klimafolgenforschung (PIK) erweitert mit einem neuen IBM Hochleistungscomputer seine Rechenkapazität um das 30fache. Der neue Computer kann hochkomplexe Simulationen mit neuesten wissenschaftlichen Modellen berechnen – und das mithilfe der eingesetzten „IBM iDataPlex-Technologie“ besonders energiesparend. Die Klimaforscher wollen mit dem neuen Rechner genauere Aussagen etwa über das bislang nicht berechenbare Auftreten von Extremwettern wie Starkregen oder Dürreperioden treffen. Der jetzt in Betrieb genommene Hochleistungscomputer hat eine theoretische Rechenleistung von 30 Teraflops (30 Billionen Rechenoperationen pro Sekunde). Das entspricht mehr als dem 1000fachen der Rechenleistung eines heute handelsüblichen PCs mit einem Drei-Gigahertz-Dualcore-Prozessor.
Die ThyssenKrupp Presta AG aus Eschen in Liechtenstein setzt auf die EAM-Lösung (Enterprise Asset Management) Maximo von IBM zur effizienten Instandhaltung und Wartung des weltweiten Maschinenparks. Seit einigen Jahren setzt das Unternehmen die EAM-Lösung Maximo von IBM ein, die auf einer einzelnen Softwareplattform basiert. Die EAM-Lösung bietet eine umfassende Sicht auf alle Assets in einem Unternehmen, die die Bereiche Produktion, Anlagen, Transport und IT (ITIL) betrifft.
Weitere Informationen
System Pooling: IBM Systems DirectorVM Control verwaltet unterschiedliche physische und virtualisierte Plattformen von x86 bis zum Mainframe, Speicher und Netzwerk von einem zentralen Punkt aus / neue Anwender im Rahmen des IBM Dynamic Infrastructure-Konzepts
Armonk/Ehningen, 21.10.2009: IBM (NYSE: IBM) hat heute neue Software für das Management von Rechenzentren angekündigt, die es ermöglicht, die Betriebskosten deutlich zu reduzieren und gleichzeitig den Zeitaufwand für die Implementierung neuer Anwendungen von Wochen auf Minuten zu senken.
Die neue IBM Systems Director VMControl Enterprise Edition hat strategische Bedeutung und unterscheidet sich grundlegend von anderen Systems-Management-Angeboten, weil sie es Unternehmen jetzt erstmals ermöglicht, von einem einzigen Punkt aus unterschiedliche IT-Systeme und Virtualisierungstechnologien zu kontrollieren. Die Software kann UNIX/Linux, den Mainframe, x86- und Speicher-Systeme sowie Netzwerke einbinden.
VMControl erlaubt es, Kombinationen aus physischen und virtuellen Servern als Einheit zu verwalten. Dieser Ansatz – System Pooling genannt – erweitert die Vorteile von Virtualisierung: Unternehmensrechenzentren werden dabei unterstützt, ihre komplexen Verwaltungsfunktionen zu vereinfachen und die Nutzung kritischer Ressourcen wie CPU, Arbeitsspeicher und Storage besser zu verteilen und zu priorisieren.
VMControl unterstützt Unternehmen, die sich für Virtualisierung – die Erstellung mehrerer virtueller Server oder Speichersysteme auf einem einzigen physischen System - entschieden haben, um die Infrastrukturkosten zu senken. Dabei müssen sie sich jedoch neuen Hürden stellen, wenn sie versuchen, verschiedene Unternehmensteile oder Geschäftsprozesse zu verwalten, die auf unterschiedlichen Plattformen mit einer jeweils eigenen Virtualisierungstechnologie betrieben werden.
Die zentralisierte Kontrolle heterogener Umgebungen bringt neue Intelligenz in die Rechenzentrumsoperationen. Unternehmen können ihre immensen Informationspools und Rechenressourcen verwalten und sie den Anwendungen zuweisen, die sie gerade benötigen. Das verbessert nicht nur die generelle Auslastung der IT-Infrastruktur, um Anschaffungs-, Betriebs- und Energiekosten zu senken. Es steigert auch die Verfügbarkeit von Anwendungen und bietet den IT-Verantwortlichen die nötige Flexibilität, um die neuen Anforderungen durch die Flut an Daten, die aus der Vernetzung von Endgeräten entsteht, in den Griff zu bekommen.
VMControl kann außerdem die Implementierung neuer Bereitstellungsmodelle für IT, wie zum Beispiel Cloud Computing, beschleunigen, durch die Informations- und Rechenressourcen von außen bezogen werden können.
Zusammen mit der IBM Tivoli Software hilft das neue Produkt Unternehmen dabei, Services zu verbessern und Kosten und Risiken zu reduzieren. IBM hat heute eine neue Version des Tivoli Provisioning Manager angekündigt, die eine verbesserte Automatisierung der manuellen Aufgaben beim Provisioning und bei der Konfigurierung von Servern, Betriebssystemen, Middelware, Software-Anwendungen, Speicher- und Netzwerkgeräten bietet.
Unabhängig davon, ob Unternehmen IT-Leistungen aus einer Cloud beziehen oder IT-Leistungen innerhalb ihres Rechenzentrums als Cloud-Services liefern wollen, machen das Ausmaß und die Geschwindigkeit des Datenwachstums sowie der permanente Druck, mit weniger Ressourcen mehr zu erreichen, VMControl zu einem wirkungsvollen Instrument für Rechenzentren.
Vorteile von VMControl:
Kürzere Antwortzeiten für Geschäftsanforderungen: Weil VMControl die Anforderungen an die technischen Fähigkeiten reduziert und die Anzahl der Werkzeuge und Aufgaben verringert, die benötigt werden, um neue Workloads zu implementieren, können Unternehmen schnelle Self-Service-Implementierungen anbieten, die innerhalb von Minuten statt Wochen zu bewältigen sind, und gleichzeitig die Kontrolle über ihre IT-Ressourcen behalten. VMControl bietet Unternehmen die Möglichkeit, sich an sich verändernde Geschäftsanforderungen anzupassen und neue und unterschiedliche Arten von Workloads unter Einhaltung der Service-Level-Vereinbarungen zu unterstützen.
Eine effizientere Nutzung der Ressourcen: Unternehmen würden ohne VMControl für die Konfigurierung, den Betrieb und die Überwachung physischer und virtueller Ressourcen über mehrere Plattformen hinweg mehr als 72 unterschiedliche Verwaltungsmethoden benötigen. Der Einkauf, die Erstellung und die Wartung verteilter Verwaltungstools binden erhebliche Teile des IT-Budgets. VMControl kann die Zahl der Verwaltungstools auf eines senken und die Betriebskosten dadurch halbieren.
Sichtbarkeit, Konsistenz und Planbarkeit von Operationen: VMControl bietet weitergehende Möglichkeiten für Monitoring, Wartung und Gewährleistung von Service-Levels, die für verschiedene Workloads im Pool der IT-Ressourcen benötigt werden, als herkömmliche Angebote. Es kann also dabei helfen, Systemprobleme vorauszusagen und auf sie zu reagieren. Indem Workloads von betroffenen Systemen wegbewegt werden, kann VMControl sicherstellen, dass Workloads die Verfügbarkeit von Anwendungen beibehalten, und ungeplante Ausfallzeiten reduzieren sowie geplante Ausfallzeiten des Betriebs verhindern.
Smartere Systeme: Die Fähigkeit von VMControl, Workloads dynamisch zu verschieben, und dynamische Anpassungen vorzunehmen, ermöglicht eine effizientere Auslastung von IBM Systemen, senkt ihren Energieverbrauch für Rechenleistung und Kühlung und bietet eine flexiblere und belastbarere Infrastruktur.
Systems Director VMControl unterstützt PowerVM und z/VM von IBM sowie x86-Virtualisierungstechnologien wie VMWare, Hyper-V und x86-Virtualisierungstechnologien, die auf offenen Standards basieren. Es wird im Dezember für IBM Power Systems mit AIX verfügbar sein. Die Unterstützung von x86- und Unix-Systemen von IBM und Wettbewerbern ist für 2010 geplant.
Aktuelle Anwenderbeispiele für IBM Dynamic Infrastructure-Lösungen:
Seit der Einführung des IBM Dynamic Infrastructure-Blueprints haben bereits viele Unternehmen den Weg hin zu einer dynamischeren IT-Infrastruktur beschritten. Einige aktuelle Beispiele:
Die Rotkäppchen-Mumm Sektkellereien können auf umsatz- und wachstumsstarke Jahre zurückblicken – auch in Zukunft soll es für das Unternehmen im Sekt- und Spirituosenmarkt weiter prickeln. Dabei unterstützt Rotkäppchen eine dynamische IT-Infrastruktur von IBM, die sich an neue Anforderungen flexibel, zuverlässig und ohne personellen Mehraufwand anpassen lässt.
Im Hinblick auf das starke Wachstum und die Akquisitionsstrategie von Rotkäppchen – sich gemeinsam mit starken Marken und Unternehmen weiter zu entwickeln – benötigte das Unternehmen eine flexible und dynamische IT-Infrastruktur, die in Zukunft mit dem Unternehmen mitwachsen sollte. Außerdem entsprachen Hard- und Software nicht mehr den gestiegenen Anforderungen an Funktionalität, Leistungsfähigkeit und Verfügbarkeit. Themenfelder, mit denen die IT in diesem Zusammenhang konfrontiert wurde, waren eine strategische Neuausrichtung im ERP-Umfeld, eine innerhalb kurzer Zeit nahezu doppelt so hohe Nutzerzahl sowie erhöhte Anforderungen an die Verfügbarkeit der Systeme durch die Ausweitung der Produktion auf 3-Schicht-Betrieb.
Gemeinsam mit dem IBM SAP Competence Center in Walldorf hat das Unternehmen die Hard- und Softwareumgebung intensiv diskutiert und entschied, die SAP-Implementierung auf der bewährten Hardwareplattform Power Systems Server mit IBM i vorzunehmen.
Das Potsdam-Institut für Klimafolgenforschung (PIK) erweitert mit einem neuen IBM Hochleistungscomputer seine Rechenkapazität um das 30fache. Der neue Computer kann hochkomplexe Simulationen mit neuesten wissenschaftlichen Modellen berechnen – und das mithilfe der eingesetzten „IBM iDataPlex-Technologie“ besonders energiesparend. Die Klimaforscher wollen mit dem neuen Rechner genauere Aussagen etwa über das bislang nicht berechenbare Auftreten von Extremwettern wie Starkregen oder Dürreperioden treffen. Der jetzt in Betrieb genommene Hochleistungscomputer hat eine theoretische Rechenleistung von 30 Teraflops (30 Billionen Rechenoperationen pro Sekunde). Das entspricht mehr als dem 1000fachen der Rechenleistung eines heute handelsüblichen PCs mit einem Drei-Gigahertz-Dualcore-Prozessor.
Die ThyssenKrupp Presta AG aus Eschen in Liechtenstein setzt auf die EAM-Lösung (Enterprise Asset Management) Maximo von IBM zur effizienten Instandhaltung und Wartung des weltweiten Maschinenparks. Seit einigen Jahren setzt das Unternehmen die EAM-Lösung Maximo von IBM ein, die auf einer einzelnen Softwareplattform basiert. Die EAM-Lösung bietet eine umfassende Sicht auf alle Assets in einem Unternehmen, die die Bereiche Produktion, Anlagen, Transport und IT (ITIL) betrifft.
Weitere Informationen
Montag, 17. August 2009
Z auf Zack: Die neue Anwendungsmaschine
DIE OFFIZIELLE PRESSEMITTEILUNG
IBM stellt neue Großrechner-Lösungen vor, mit denen Kunden neue Anwendungen leichter auf der Mainframe-Plattform betreiben können
Neue System z "Solution Edition" und das Linux-Programm erleichtern es Kunden, die legendäre Leistungsfähigkeit und Robustheit des IBM Großrechners für sich zu nutzen
Armonk/Stuttgart, 17.08.2009: IBM (NYSE) hat die System z "Solution Edition"-Serie angekündigt – sieben integrierte Pakete mit Hardware, Software und Services, die Kunden dabei unterstützen können, Anwendungen wie Data Warehousing, elektronische Zahlungssysteme und Disaster Recovery leichter auf der Großrechnerplattform einzusetzen.
IBM kündigte auch zusätzliche neue Initiativen an, um weiteren Unternehmen dabei zu helfen, durch die Migration von Sun- und HP-Servern auf die Linux-Plattform auf IBM System z ihre Kosten weiter senken zu können und dabei Betriebsabläufe zu vereinfachen. Diese neuen Programme spiegeln die fortlaufende IBM Strategie wider, System z attraktiv für neue Anwendungsgebiete zu machen. Damit können Anwender die Leistungsstärke und Verlässlichkeit des Großrechners sowie seine immensen Ressourcen für Transaktionsverarbeitung und das effiziente Management für eine größere Bandbreite an Geschäftsaktivitäten nutzen.
Die Solution Edition wurde speziell dafür entwickelt, die Kosten für den Einsatz neuer Anwendungsgebiete auf IBM System z-Großrechnern preislich konkurrenzfähig zu machen gegenüber verteilten Systemen, die unter Umständen nicht so verlässlich, skalierbar oder sicher wie eine Mainframe-Plattform sind.
Das Solution-Edition-Angebot erweitert ein erfolgreiches Programm für SAP-Geschäftsanwendungen auf dem IBM Mainframe. IBM konnte einen deutlichen Zuwachs von SAP-Anwendungen auf System z seit der Ankündigung des Programms vor 18 Monaten verzeichnen.
Die Solution-Edition-Angebote sind attraktive Komplett-Lösungen. Sie beinhalten IBM System-z-Hardware, IBM Middleware-Produkte und Wartungsprogramme für neue Geschäftsfunktionen wie zum Beispiel:
Data Warehousing: Mit der System z Solution Edition für Data Warehousing können Kunden zügig neue Business-Intelligence-Anwendungen auf System z implementieren und gleichzeitig dazu beitragen, lange Verzögerungen, die bei der Beschaffung und Integration verteilter Server üblich sind, zu vermeiden. In näherer Zukunft können Kunden die Vorteile des Großrechners bei Data Warehousing voraussichtlich noch stärker nützen, sobald die neuen IBM Smart Analytic Optimizer-Funktionen bereit stehen werden.
Anwendungsentwicklung: Die System z Solution Edition für Anwendungsentwicklung kann dazu beitragen, die Implementierung neuer Workloads kostengünstig, einfach und mit überschaubarem Aufwand für Anwendungsentwickler zu gestalten. Gleichzeitig unterstützt sie eine Entwicklungsumgebung, die mit verteilten Plattformen konsistent ist.
Disaster Recovery: Die System z Solutions Edition für GDPS (Geographically Dispersed Parallel Dysplex) bietet eine Reihe stufenloser Konfigurationen für Verfügbarkeit und Disaster Recovery zu attraktiven Preisen.
Sicherheit: Die System z Solution Edition für Enterprise Security kann Kunden dabei unterstützen, Sicherheitsbedrohungen im Online-Bereich für Business Compliance, das zentrale Enterprise-Identity- und Access-Management, Verschlüsselungs- und Key-Management zu minimieren und bietet Analysemöglichkeiten für Betrugsversuche.
Elektronischer Zahlungsverkehr: Die System z Solution Edition für ACI bietet Kunden Vorteile, die Anwendungen von ACI Worldwide, einem internationalen Anbieter von Software für elektronische Zahlungssysteme, nutzen. Die Anwendungen von ACI für Strategic Retail und den Schutz vor Betrug im elektronischen Zahlungsverkehr sind für System z optimiert.
Die System z Solution Edition für WebSphere kombiniert die System z-Technologie mit dem IBM WebSphere Application Server als Grundlage, um Service-Oriented-Architecture (SOA)-Anwendungen und –Services aufzubauen, wiederzuverwenden, zu betreiben, zu integrieren und zu verwalten.
Die neue System z Solution Series verbessert zudem das bestehende SAP-Angebot, das für nahezu unterbrechungsfreie Verfügbarkeit und Datensicherung mit DB2 für z/OS-Datenbanken auf System z entwickelt wurde.
IBM kündigte zudem eine neue Preisstruktur für die "Integrated Facility for Linux" (IFL) und zugehörigen Speicher an, um Unternehmen dabei zu unterstützen, Workloads von ineffizienten Servern in einer Silo-Umgebung auf Linux auf der System-z-Plattform zu konsolidieren.
Die heutige Ankündigung spiegelt die kontinuierlichen Investitionen von IBM in Linux auf System z wider. Mehr als 3.000 der 5.000 auf der System-z-Plattform erhältlichen Anwendungen basieren auf Linux. Linux-basierte Anwendungen machen etwa die Hälfte der ungefähr 1.000 neuen oder verbesserten Anwendungen aus, die 2008 für den IBM Mainframe angekündigt wurden. Mehr als 40 Prozent der neuen System-z-Kunden installierten letztes Jahr Linux, in der ersten Jahreshälfte 2009 wuchs Linux noch einmal um 15 Prozent.
Die neue Solution Edition Series in Verbindung mit dem kürzlich angekündigten „zRewards“-Programm unterstützt mit attraktiven Lösungen und finanziellen Anreizen Kunden dabei, Vorteile aus Migrations-Services zu ziehen.
Der Marktanteil von IBM an Servern in der Preisklasse ab 250.000 $ stieg in der jetzigen Dekade laut IDC von 17 auf 32 Prozent. Im selben Zeitraum hielt HP den Marktanteil, während Sun Marktanteile verlor. (1)
Weitere Informationen über IBM Großrechner unter www.ibm.com/mainframe oder www.ibm.com/systems/de/z/ und in der original US-Presseinformation anbei.
(1) Quelle: Auf Basis rollierender 4-Quartals-Betrachtung, laut dem IDC High end +$250K Server Quarterly-Tracker von 3q 00 bis 1q 09. IDC WW Server Tracker Results 1Q’09.
IBM stellt neue Großrechner-Lösungen vor, mit denen Kunden neue Anwendungen leichter auf der Mainframe-Plattform betreiben können
Neue System z "Solution Edition" und das Linux-Programm erleichtern es Kunden, die legendäre Leistungsfähigkeit und Robustheit des IBM Großrechners für sich zu nutzen
Armonk/Stuttgart, 17.08.2009: IBM (NYSE) hat die System z "Solution Edition"-Serie angekündigt – sieben integrierte Pakete mit Hardware, Software und Services, die Kunden dabei unterstützen können, Anwendungen wie Data Warehousing, elektronische Zahlungssysteme und Disaster Recovery leichter auf der Großrechnerplattform einzusetzen.
IBM kündigte auch zusätzliche neue Initiativen an, um weiteren Unternehmen dabei zu helfen, durch die Migration von Sun- und HP-Servern auf die Linux-Plattform auf IBM System z ihre Kosten weiter senken zu können und dabei Betriebsabläufe zu vereinfachen. Diese neuen Programme spiegeln die fortlaufende IBM Strategie wider, System z attraktiv für neue Anwendungsgebiete zu machen. Damit können Anwender die Leistungsstärke und Verlässlichkeit des Großrechners sowie seine immensen Ressourcen für Transaktionsverarbeitung und das effiziente Management für eine größere Bandbreite an Geschäftsaktivitäten nutzen.
Die Solution Edition wurde speziell dafür entwickelt, die Kosten für den Einsatz neuer Anwendungsgebiete auf IBM System z-Großrechnern preislich konkurrenzfähig zu machen gegenüber verteilten Systemen, die unter Umständen nicht so verlässlich, skalierbar oder sicher wie eine Mainframe-Plattform sind.
Das Solution-Edition-Angebot erweitert ein erfolgreiches Programm für SAP-Geschäftsanwendungen auf dem IBM Mainframe. IBM konnte einen deutlichen Zuwachs von SAP-Anwendungen auf System z seit der Ankündigung des Programms vor 18 Monaten verzeichnen.
Die Solution-Edition-Angebote sind attraktive Komplett-Lösungen. Sie beinhalten IBM System-z-Hardware, IBM Middleware-Produkte und Wartungsprogramme für neue Geschäftsfunktionen wie zum Beispiel:
Data Warehousing: Mit der System z Solution Edition für Data Warehousing können Kunden zügig neue Business-Intelligence-Anwendungen auf System z implementieren und gleichzeitig dazu beitragen, lange Verzögerungen, die bei der Beschaffung und Integration verteilter Server üblich sind, zu vermeiden. In näherer Zukunft können Kunden die Vorteile des Großrechners bei Data Warehousing voraussichtlich noch stärker nützen, sobald die neuen IBM Smart Analytic Optimizer-Funktionen bereit stehen werden.
Anwendungsentwicklung: Die System z Solution Edition für Anwendungsentwicklung kann dazu beitragen, die Implementierung neuer Workloads kostengünstig, einfach und mit überschaubarem Aufwand für Anwendungsentwickler zu gestalten. Gleichzeitig unterstützt sie eine Entwicklungsumgebung, die mit verteilten Plattformen konsistent ist.
Disaster Recovery: Die System z Solutions Edition für GDPS (Geographically Dispersed Parallel Dysplex) bietet eine Reihe stufenloser Konfigurationen für Verfügbarkeit und Disaster Recovery zu attraktiven Preisen.
Sicherheit: Die System z Solution Edition für Enterprise Security kann Kunden dabei unterstützen, Sicherheitsbedrohungen im Online-Bereich für Business Compliance, das zentrale Enterprise-Identity- und Access-Management, Verschlüsselungs- und Key-Management zu minimieren und bietet Analysemöglichkeiten für Betrugsversuche.
Elektronischer Zahlungsverkehr: Die System z Solution Edition für ACI bietet Kunden Vorteile, die Anwendungen von ACI Worldwide, einem internationalen Anbieter von Software für elektronische Zahlungssysteme, nutzen. Die Anwendungen von ACI für Strategic Retail und den Schutz vor Betrug im elektronischen Zahlungsverkehr sind für System z optimiert.
Die System z Solution Edition für WebSphere kombiniert die System z-Technologie mit dem IBM WebSphere Application Server als Grundlage, um Service-Oriented-Architecture (SOA)-Anwendungen und –Services aufzubauen, wiederzuverwenden, zu betreiben, zu integrieren und zu verwalten.
Die neue System z Solution Series verbessert zudem das bestehende SAP-Angebot, das für nahezu unterbrechungsfreie Verfügbarkeit und Datensicherung mit DB2 für z/OS-Datenbanken auf System z entwickelt wurde.
IBM kündigte zudem eine neue Preisstruktur für die "Integrated Facility for Linux" (IFL) und zugehörigen Speicher an, um Unternehmen dabei zu unterstützen, Workloads von ineffizienten Servern in einer Silo-Umgebung auf Linux auf der System-z-Plattform zu konsolidieren.
Die heutige Ankündigung spiegelt die kontinuierlichen Investitionen von IBM in Linux auf System z wider. Mehr als 3.000 der 5.000 auf der System-z-Plattform erhältlichen Anwendungen basieren auf Linux. Linux-basierte Anwendungen machen etwa die Hälfte der ungefähr 1.000 neuen oder verbesserten Anwendungen aus, die 2008 für den IBM Mainframe angekündigt wurden. Mehr als 40 Prozent der neuen System-z-Kunden installierten letztes Jahr Linux, in der ersten Jahreshälfte 2009 wuchs Linux noch einmal um 15 Prozent.
Die neue Solution Edition Series in Verbindung mit dem kürzlich angekündigten „zRewards“-Programm unterstützt mit attraktiven Lösungen und finanziellen Anreizen Kunden dabei, Vorteile aus Migrations-Services zu ziehen.
Der Marktanteil von IBM an Servern in der Preisklasse ab 250.000 $ stieg in der jetzigen Dekade laut IDC von 17 auf 32 Prozent. Im selben Zeitraum hielt HP den Marktanteil, während Sun Marktanteile verlor. (1)
Weitere Informationen über IBM Großrechner unter www.ibm.com/mainframe oder www.ibm.com/systems/de/z/ und in der original US-Presseinformation anbei.
(1) Quelle: Auf Basis rollierender 4-Quartals-Betrachtung, laut dem IDC High end +$250K Server Quarterly-Tracker von 3q 00 bis 1q 09. IDC WW Server Tracker Results 1Q’09.
Mittwoch, 17. Juni 2009
IBMs Cloud-Initiative: Der Pressetext
IBM macht Cloud-Computing bereit für den Unternehmenseinsatz
Neue Möglichkeiten zur Automatisierung und Vereinfachung der Informationstechnologie
Armonk/Stuttgart, 16. Juni 2009: IBM (NYSE: IBM) kündigt heute eine in dieser Art industrieweit erste Zusammenstellung kommerzieller Cloud-Services und integrierter Cloud-fähiger Produkte für den professionellen Unternehmenseinatz an. Sie ermöglichen Kunden, IT-Funktionen, die künftig im traditionellen Betrieb zu teuer oder kompliziert zu nutzen sind, zu standardisieren.Das neue IBM "Smart-Business"-Cloud-Portfolio baut auf fast zwei Jahren Forschung und Erfahrungen aus Projekten mit mehreren hundert Kunden auf. Es soll Anwender dabei unterstützen, komplexe Geschäftsprozesse in einfachere Services umzuwandeln. Hierzu stellt das "Smart Business"-Portfolio Automatisierungstechnologie und Selbstbedienungsmöglichkeiten für unterschiedliche digitale Aufgabenstellungen bereit, wie zum Beispiel Software-Entwicklung und -Testing, Desktop- und Device-Management oder Collaboration-Aufgaben.Von Energienetzen über die Verkehrsinfrastruktur bis hin zu Wasserkreisläufen und Finanzmarktsystemen: Die physische Infrastruktur unserer Welt wird mehr und mehr instrumentalisiert und IT-gestützt. Rechenzentren in Unternehmen werden eine neue Flut von Transaktionen und Daten bewältigen müssen, die durch die Vernetzung von einer Milliarde Menschen und einer Billion Endgeräte entstehen werden.
Die neuen Cloud-Lösungen sollen Kunden dabei unterstützen, völlig neue Aufgabenstellungen zu bewältigen und effizient mit den immensen Datenmengen, denen Rechenzentren gegenüberstehen, umgehen zu können. "Cloud-Computing ist ein wichtiges neues Modell für die Inanspruchnahme und die effiziente und kostengünstige Lieferung von IT- und Geschäftsdienstleistungen. Vor allem große Unternehmen nehmen unsere Unterstützung gern in Anspruch, weil sie die Vorteile dieses Cloud-Modells für ihr Geschäft in einer Weise nutzen wollen, die sicher, verlässlich und effizient ist", erläutert Erich Clementi, Vice President Enterprise Initiatives IBM.
"Die heutige Ankündigung zu Smart Business zeigt, dass wir diese Verantwortung sehr ernst nehmen und schnell auf die veränderten Bedingungen des Marktes und unserer Kunden reagieren. Wir investieren stark in Clouds und bieten Lösungen, mit denen Kunden die Technologie schon sehr früh nutzen können. Wir unterstützen Unternehmen heute genau so, wie wir sie schon beim Aufkommen von e-Business oder in der Anfangsphase von Open-Source-Lösungen und Linux unterstützt haben.?Das IBM Smart-Business-Portfolio umfasst drei Möglichkeiten, das Cloud-Modell schnell einzusetzen: - standardisierte IBM Smart Business-Services in der IBM Cloud- private Smart Business-Cloud-Services innerhalb der Firewall eingerichtet von IBM (betrieben von IBM oder vom Kunden)- Workload-optimierte ?CloudBurst?-Systeme, für Kunden, die ihre eigene Cloud-Umgebung mit vorintegrierter Hardware und Software einrichten möchten.Alle drei Angebote beeinhalten das IBM Service Management System ? eine Art Flugsicherungskontrollsystem für IT ?, das Selbstbedienung, Provisioning, Monitoring sowie die Verwaltung von Zugangsdaten und Sicherheitslösungen für die Cloud automatisiert. Dies spiegelt die Expertise der IBM und Investitionen von über 10 Milliarden US $ in den letzten fünf Jahren im Bereich Steuerungs- und Automatisierungstechnologien wider. In dem Maße, wie die digitale und die physische Infrastruktur konvergieren, gewinnen auch diese Technologien zunehmend an Bedeutung. Das Böblinger Forschungs- und Entwicklungszentrum trägt die weltweite Entwicklungsverantwortung für IBM CloudBurst, eine Produktfamilie von vorintegrierter Hardware, Speicher, Virtualisierungs- und Netzwerk-Technologien mit eingebautem Service Management System.Das Modell für die Inanspruchnahme und Lieferung von Cloud-Computing standardisiert IT- und Geschäftsservices nach der Art ihrer Aufgabenstellung und ihrer Funktion. Die ersten Angebote im IBM Smart-Business-Portfolio sind für zwei Bereiche optimiert: Entwicklung und Test sowie virtualisierte Desktops.IBM Smart Business: Softwareentwicklung und ?erprobungIn vielen Organisationen wird die Arbeit von Softwareentwicklern zum Zentrum der Innovation und entscheidend für viele Geschäftsprozesse. Sie entwickeln die Services und Lösungen, die Geschäftschancen generieren können und von denen das zukünftige Einkommen abhängt. Die Entwickler tragen heute so stark zum Geschäftserfolg bei, dass Unternehmen im Durchschnitt 30 bis 50 Prozent ihrer gesamten Technologie-Infrastruktur für die Entwicklung und Erprobung verwenden. Allerdings liegen typischerweise bis zu 90 Prozent davon brach.Zusätzlich zu hohen Kosten und niedriger Auslastung geht heute ein großer Teil der Zeit und Produktivität von Softwareentwicklern verloren, um an Genehmigungen und Zugänge für Systeme und Werkzeuge zu kommen, die sie für ihre Aufgabe brauchen. Wenn man es den Entwicklern sicher ermöglicht, Zugänge selbst zu verwalten, kann man dazu beitragen, die Personalkosten im IT-Bereich um bis zu 50 Prozent zu senken, die Bereitstellungszeit von Wochen auf Minuten zu verkürzen und die Qualität zu verbessern, da Softwarefehler um bis zu 30 Prozent verringert werden können. IBM wird Kunden drei Möglichkeiten anbieten, um Entwicklungs- und Erprobungsservices einzusetzen:IBM Smart Business Test Cloud: Private Cloud-Services innerhalb der Firewall des Kunden eingerichtet und/oder betrieben von IBMIBM Smart Business Development & Test in der IBM Cloud (Preview): Der IBM Software-Delivery-Service für die Cloud ermöglicht Organisationen, Ressourcen freizusetzen, um einen schnelleren Ertrag aus ihrem in Software investierten Kapital zu erreichen, indem sie sich für das sichere, skalierbare Cloud-Delivery-Modell für das Lifecycle-Management von Anwendungen entscheiden.IBM CloudBurst: Eine Familie vor-integrierter Hardware-, Speicher-, Virtualisierungs- und Netzwerklösungen mit einem eingebauten Service-Management-System.IBM Smart Business: Virtual DesktopsKunden von IBM haben Cloud Computing auch erfolgreich dafür eingesetzt, Desktops zu virtualisieren. Weil sie bis zu 73 Prozent weniger Strom verbrauchen als traditionelle Desktops und Laptops, bieten Server-gestützte virtualisierte Desktops eine verbesserte End-User-Experience und können einfacher verwaltet werden. Nach IBM internen Daten aus dem Einsatz bei Kunden, können diese Lösungen die Kosten für den IT-Support für den End-User gegenüber traditionellen Desktop-Umgebungen um bis zu 40 Prozent senken.IBM wird zwei Möglichkeiten anbieten, Kunden bei der Virtualisierung von Desktops zu unterstützen:IBM Smart Business Desktop Cloud: Cloud-Services, die über die Infrastruktur und das Rechenzentrum des Kunden zur Verfügung gestellt werden.IBM Smart Business Desktop in der IBM Cloud (Preview): IBM Smart Business Virtual Desktop wird über die sichere und skalierbare Public Cloud von IBM bereitgestellt.IT wird mit eingebautem Service-Management-System intelligenterService-Management ist das Betriebssystem des 21. Jahrhunderts. Es stimmt tausende von Prozessen und Services von digitalen und physischen Quellen weltweit ab. Was das Betriebssystem für die PC-Ära darstellte, wird Service-Management für die IT- und Geschäfts-Services in der Cloud bedeuten.Heute entstehen jeden Tag 15 Petabyte an neuen Informationen ? das sind mehr als acht mal so viele Informationen, wie in allen Bibliotheken in den USA zusammen lagern. Bis 2011 werden eine Billion Endgeräte mit dem Internet verbunden sein. Obwohl die Endverbraucher 70 Prozent dieses digitalen Universums generieren, werden Unternehmen für die Verwaltung von 85 Prozent davon verantwortlich sein. Hierzu gehören Sicherheit, Datenschutz, Ausfallsicherheit und Compliance. Service-Management wird all dies aufeinander abstimmen.Es ist kein Zufall, dass die IBM Investitionen ? in Akquisitionen und in Forschung und Entwicklung ? so stark auf den Fortschritt von smarten Überwachungs- und Automatisierungstechnologien konzentriert hat. Ungefähr die Hälfte dieser Investitionen ist auf Software ausgerichtet, die dafür eingesetzt wird, sogenannte traditionelle IT zu überwachen und zu automatisieren. Die andere Hälfte soll zur Visualisierung und Überwachung der Abermilliarden von vernetzten physischen Endgeräten, die mit Rechenzentren verbunden werden, wie zum Beispiel Mobilfunknetze, intelligente Stromzähler oder Eisenbahnwaggons, beitragen.
Weitere Informationen über Smarter Planet unter ibm.com/think.Weitere Informationen über das IBM Cloud-Computing-Portfolio, über Forschung und Labore unter ibm.com/cloud.
Neue Möglichkeiten zur Automatisierung und Vereinfachung der Informationstechnologie
Armonk/Stuttgart, 16. Juni 2009: IBM (NYSE: IBM) kündigt heute eine in dieser Art industrieweit erste Zusammenstellung kommerzieller Cloud-Services und integrierter Cloud-fähiger Produkte für den professionellen Unternehmenseinatz an. Sie ermöglichen Kunden, IT-Funktionen, die künftig im traditionellen Betrieb zu teuer oder kompliziert zu nutzen sind, zu standardisieren.Das neue IBM "Smart-Business"-Cloud-Portfolio baut auf fast zwei Jahren Forschung und Erfahrungen aus Projekten mit mehreren hundert Kunden auf. Es soll Anwender dabei unterstützen, komplexe Geschäftsprozesse in einfachere Services umzuwandeln. Hierzu stellt das "Smart Business"-Portfolio Automatisierungstechnologie und Selbstbedienungsmöglichkeiten für unterschiedliche digitale Aufgabenstellungen bereit, wie zum Beispiel Software-Entwicklung und -Testing, Desktop- und Device-Management oder Collaboration-Aufgaben.Von Energienetzen über die Verkehrsinfrastruktur bis hin zu Wasserkreisläufen und Finanzmarktsystemen: Die physische Infrastruktur unserer Welt wird mehr und mehr instrumentalisiert und IT-gestützt. Rechenzentren in Unternehmen werden eine neue Flut von Transaktionen und Daten bewältigen müssen, die durch die Vernetzung von einer Milliarde Menschen und einer Billion Endgeräte entstehen werden.
Die neuen Cloud-Lösungen sollen Kunden dabei unterstützen, völlig neue Aufgabenstellungen zu bewältigen und effizient mit den immensen Datenmengen, denen Rechenzentren gegenüberstehen, umgehen zu können. "Cloud-Computing ist ein wichtiges neues Modell für die Inanspruchnahme und die effiziente und kostengünstige Lieferung von IT- und Geschäftsdienstleistungen. Vor allem große Unternehmen nehmen unsere Unterstützung gern in Anspruch, weil sie die Vorteile dieses Cloud-Modells für ihr Geschäft in einer Weise nutzen wollen, die sicher, verlässlich und effizient ist", erläutert Erich Clementi, Vice President Enterprise Initiatives IBM.
"Die heutige Ankündigung zu Smart Business zeigt, dass wir diese Verantwortung sehr ernst nehmen und schnell auf die veränderten Bedingungen des Marktes und unserer Kunden reagieren. Wir investieren stark in Clouds und bieten Lösungen, mit denen Kunden die Technologie schon sehr früh nutzen können. Wir unterstützen Unternehmen heute genau so, wie wir sie schon beim Aufkommen von e-Business oder in der Anfangsphase von Open-Source-Lösungen und Linux unterstützt haben.?Das IBM Smart-Business-Portfolio umfasst drei Möglichkeiten, das Cloud-Modell schnell einzusetzen: - standardisierte IBM Smart Business-Services in der IBM Cloud- private Smart Business-Cloud-Services innerhalb der Firewall eingerichtet von IBM (betrieben von IBM oder vom Kunden)- Workload-optimierte ?CloudBurst?-Systeme, für Kunden, die ihre eigene Cloud-Umgebung mit vorintegrierter Hardware und Software einrichten möchten.Alle drei Angebote beeinhalten das IBM Service Management System ? eine Art Flugsicherungskontrollsystem für IT ?, das Selbstbedienung, Provisioning, Monitoring sowie die Verwaltung von Zugangsdaten und Sicherheitslösungen für die Cloud automatisiert. Dies spiegelt die Expertise der IBM und Investitionen von über 10 Milliarden US $ in den letzten fünf Jahren im Bereich Steuerungs- und Automatisierungstechnologien wider. In dem Maße, wie die digitale und die physische Infrastruktur konvergieren, gewinnen auch diese Technologien zunehmend an Bedeutung. Das Böblinger Forschungs- und Entwicklungszentrum trägt die weltweite Entwicklungsverantwortung für IBM CloudBurst, eine Produktfamilie von vorintegrierter Hardware, Speicher, Virtualisierungs- und Netzwerk-Technologien mit eingebautem Service Management System.Das Modell für die Inanspruchnahme und Lieferung von Cloud-Computing standardisiert IT- und Geschäftsservices nach der Art ihrer Aufgabenstellung und ihrer Funktion. Die ersten Angebote im IBM Smart-Business-Portfolio sind für zwei Bereiche optimiert: Entwicklung und Test sowie virtualisierte Desktops.IBM Smart Business: Softwareentwicklung und ?erprobungIn vielen Organisationen wird die Arbeit von Softwareentwicklern zum Zentrum der Innovation und entscheidend für viele Geschäftsprozesse. Sie entwickeln die Services und Lösungen, die Geschäftschancen generieren können und von denen das zukünftige Einkommen abhängt. Die Entwickler tragen heute so stark zum Geschäftserfolg bei, dass Unternehmen im Durchschnitt 30 bis 50 Prozent ihrer gesamten Technologie-Infrastruktur für die Entwicklung und Erprobung verwenden. Allerdings liegen typischerweise bis zu 90 Prozent davon brach.Zusätzlich zu hohen Kosten und niedriger Auslastung geht heute ein großer Teil der Zeit und Produktivität von Softwareentwicklern verloren, um an Genehmigungen und Zugänge für Systeme und Werkzeuge zu kommen, die sie für ihre Aufgabe brauchen. Wenn man es den Entwicklern sicher ermöglicht, Zugänge selbst zu verwalten, kann man dazu beitragen, die Personalkosten im IT-Bereich um bis zu 50 Prozent zu senken, die Bereitstellungszeit von Wochen auf Minuten zu verkürzen und die Qualität zu verbessern, da Softwarefehler um bis zu 30 Prozent verringert werden können. IBM wird Kunden drei Möglichkeiten anbieten, um Entwicklungs- und Erprobungsservices einzusetzen:IBM Smart Business Test Cloud: Private Cloud-Services innerhalb der Firewall des Kunden eingerichtet und/oder betrieben von IBMIBM Smart Business Development & Test in der IBM Cloud (Preview): Der IBM Software-Delivery-Service für die Cloud ermöglicht Organisationen, Ressourcen freizusetzen, um einen schnelleren Ertrag aus ihrem in Software investierten Kapital zu erreichen, indem sie sich für das sichere, skalierbare Cloud-Delivery-Modell für das Lifecycle-Management von Anwendungen entscheiden.IBM CloudBurst: Eine Familie vor-integrierter Hardware-, Speicher-, Virtualisierungs- und Netzwerklösungen mit einem eingebauten Service-Management-System.IBM Smart Business: Virtual DesktopsKunden von IBM haben Cloud Computing auch erfolgreich dafür eingesetzt, Desktops zu virtualisieren. Weil sie bis zu 73 Prozent weniger Strom verbrauchen als traditionelle Desktops und Laptops, bieten Server-gestützte virtualisierte Desktops eine verbesserte End-User-Experience und können einfacher verwaltet werden. Nach IBM internen Daten aus dem Einsatz bei Kunden, können diese Lösungen die Kosten für den IT-Support für den End-User gegenüber traditionellen Desktop-Umgebungen um bis zu 40 Prozent senken.IBM wird zwei Möglichkeiten anbieten, Kunden bei der Virtualisierung von Desktops zu unterstützen:IBM Smart Business Desktop Cloud: Cloud-Services, die über die Infrastruktur und das Rechenzentrum des Kunden zur Verfügung gestellt werden.IBM Smart Business Desktop in der IBM Cloud (Preview): IBM Smart Business Virtual Desktop wird über die sichere und skalierbare Public Cloud von IBM bereitgestellt.IT wird mit eingebautem Service-Management-System intelligenterService-Management ist das Betriebssystem des 21. Jahrhunderts. Es stimmt tausende von Prozessen und Services von digitalen und physischen Quellen weltweit ab. Was das Betriebssystem für die PC-Ära darstellte, wird Service-Management für die IT- und Geschäfts-Services in der Cloud bedeuten.Heute entstehen jeden Tag 15 Petabyte an neuen Informationen ? das sind mehr als acht mal so viele Informationen, wie in allen Bibliotheken in den USA zusammen lagern. Bis 2011 werden eine Billion Endgeräte mit dem Internet verbunden sein. Obwohl die Endverbraucher 70 Prozent dieses digitalen Universums generieren, werden Unternehmen für die Verwaltung von 85 Prozent davon verantwortlich sein. Hierzu gehören Sicherheit, Datenschutz, Ausfallsicherheit und Compliance. Service-Management wird all dies aufeinander abstimmen.Es ist kein Zufall, dass die IBM Investitionen ? in Akquisitionen und in Forschung und Entwicklung ? so stark auf den Fortschritt von smarten Überwachungs- und Automatisierungstechnologien konzentriert hat. Ungefähr die Hälfte dieser Investitionen ist auf Software ausgerichtet, die dafür eingesetzt wird, sogenannte traditionelle IT zu überwachen und zu automatisieren. Die andere Hälfte soll zur Visualisierung und Überwachung der Abermilliarden von vernetzten physischen Endgeräten, die mit Rechenzentren verbunden werden, wie zum Beispiel Mobilfunknetze, intelligente Stromzähler oder Eisenbahnwaggons, beitragen.
Weitere Informationen über Smarter Planet unter ibm.com/think.Weitere Informationen über das IBM Cloud-Computing-Portfolio, über Forschung und Labore unter ibm.com/cloud.
Mittwoch, 10. Juni 2009
USU-Produkte erhalten begehrte internationale ITIL-Zertifizierung....
... PinkVERIFYTM
Möglingen, 9. Juni 2009. Das renommierte ITIL-Beratungshaus Pink Elephant hat die integrierten Produkte Valuemation, USU KnowledgeCenter und ZIS-System in 12 ITIL v3-Prozessen zertifiziert. Damit gehört der Business Service Management-Anbieter USU aktuell zu den weltweit drei Herstellern, welche die hohen Funktions- und Integrations-Anforderungen an die> > Konformität von 12 und mehr ITIL v3-Prozessen erfüllen. Nach einem> > objektiven Prüfungsverfahren erhielt USU das ITIL v3-Gütesiegel für die Produktlinie Valuemation 3.6 in den Disziplinen Incident, Problem, Change, Request Fulfillment, Service Portfolio, Service Catalog, Service Asset & Configuration, Service Level und Financial Management. In der Kategorie Knowledge Management wurde zudem die USU KnowledgeCenter-Suite (Version 4.8) zertifiziert, im Bereich Event und Availability Management aus der> > USU-Gruppe das Produkt ZIS-System 5.3 der LeuTek. Speziell für die Themen Service Portfolio Management und Financial Management verfügt die USU über ein herausragendes, am Markt bislang einzigartiges Lösungsangebot.
Die Umsetzung von IT Service Management auf Basis der ITIL-Best-Practices ist zu einem kritischen Faktor für Unternehmen geworden, deren Erfolg zunehmend von der IT-Technologie abhängig ist. Deswegen richten inzwischen alle größeren Unternehmen ihre IT-Prozesse nach ITIL aus. PinkVERIFYTM> zeichnet als weltweit einziges unabhängiges Zertifizierungsprogramm Softwarelösungen aus, welche die ITIL-Kernprozesse der Version 3 nachhaltig unterstützen. Nach einer umfangreichen Validierung attestieren die Berater> > von Pink Elephant den USU-Produkten in 12 von 14 Disziplinen eine uneingeschränkte Kompatibilität mit den ITIL v3-Prozessen. Valuemation ist eine modular aufgebaute, integrierte Suite von Standardprodukten für Business Service Management (BSM). Die Suite verknüpft erfolgskritische Anwendungen, organisatorische Strukturen, Schnittstellen und Technologien mit den Geschäftsprozessen zur effizienten Nutzung von Unternehmensressourcen. Aktuelle Analysen internationaler Marktforschungsunternehmen wie z.B. Forrester, Gartner oder ECP bewerten die USU als einen der weltweit führenden Hersteller in den BSM-Schlüsselbereichen IT Asset Management, Configuration Management oder IT-Service Management.
Der Wertschöpfungsbeitrag der IT für das Geschäft wird durch ITIL v3 noch stärker betont. Die ITIL v3-Auszeichnung durch Pink Elephant ist für uns daher ein sehr wichtiger Meilenstein. Die umfassende Zertifizierung untermauert unsere strategische Ausrichtung als internationaler Softwareanbieter für Business Service Management", erklärt Bernhard Oberschmidt, Sprecher des Vorstandes der USU AG.
Möglingen, 9. Juni 2009. Das renommierte ITIL-Beratungshaus Pink Elephant hat die integrierten Produkte Valuemation, USU KnowledgeCenter und ZIS-System in 12 ITIL v3-Prozessen zertifiziert. Damit gehört der Business Service Management-Anbieter USU aktuell zu den weltweit drei Herstellern, welche die hohen Funktions- und Integrations-Anforderungen an die> > Konformität von 12 und mehr ITIL v3-Prozessen erfüllen. Nach einem> > objektiven Prüfungsverfahren erhielt USU das ITIL v3-Gütesiegel für die Produktlinie Valuemation 3.6 in den Disziplinen Incident, Problem, Change, Request Fulfillment, Service Portfolio, Service Catalog, Service Asset & Configuration, Service Level und Financial Management. In der Kategorie Knowledge Management wurde zudem die USU KnowledgeCenter-Suite (Version 4.8) zertifiziert, im Bereich Event und Availability Management aus der> > USU-Gruppe das Produkt ZIS-System 5.3 der LeuTek. Speziell für die Themen Service Portfolio Management und Financial Management verfügt die USU über ein herausragendes, am Markt bislang einzigartiges Lösungsangebot.
Die Umsetzung von IT Service Management auf Basis der ITIL-Best-Practices ist zu einem kritischen Faktor für Unternehmen geworden, deren Erfolg zunehmend von der IT-Technologie abhängig ist. Deswegen richten inzwischen alle größeren Unternehmen ihre IT-Prozesse nach ITIL aus. PinkVERIFYTM> zeichnet als weltweit einziges unabhängiges Zertifizierungsprogramm Softwarelösungen aus, welche die ITIL-Kernprozesse der Version 3 nachhaltig unterstützen. Nach einer umfangreichen Validierung attestieren die Berater> > von Pink Elephant den USU-Produkten in 12 von 14 Disziplinen eine uneingeschränkte Kompatibilität mit den ITIL v3-Prozessen. Valuemation ist eine modular aufgebaute, integrierte Suite von Standardprodukten für Business Service Management (BSM). Die Suite verknüpft erfolgskritische Anwendungen, organisatorische Strukturen, Schnittstellen und Technologien mit den Geschäftsprozessen zur effizienten Nutzung von Unternehmensressourcen. Aktuelle Analysen internationaler Marktforschungsunternehmen wie z.B. Forrester, Gartner oder ECP bewerten die USU als einen der weltweit führenden Hersteller in den BSM-Schlüsselbereichen IT Asset Management, Configuration Management oder IT-Service Management.
Der Wertschöpfungsbeitrag der IT für das Geschäft wird durch ITIL v3 noch stärker betont. Die ITIL v3-Auszeichnung durch Pink Elephant ist für uns daher ein sehr wichtiger Meilenstein. Die umfassende Zertifizierung untermauert unsere strategische Ausrichtung als internationaler Softwareanbieter für Business Service Management", erklärt Bernhard Oberschmidt, Sprecher des Vorstandes der USU AG.
Montag, 8. Juni 2009
THAT`Z IT: Neue Softwareangebot
IBM Presseinformation
IBM unterstützt Kunden mit neuen Softwareangeboten für System z-Mainframes
Kostensenkungsmöglichkeiten und hohe Zuverlässigkeit des Großrechners geben weiteren Anreiz für ISV-Engagements und Kundeninvestitionen
Stuttgart, 8. Juni 2009: IBM hat neue Softwareangebote für System z angekündigt, die Unternehmen dabei unterstützen sollen, ihre IT-Kosten zu senken und gleichzeitig ihre Flexibilität weiter zu steigern und ihren Service zu verbessern. IBM plant darüber hinaus, im Verlauf des Jahres 2009 etwa dreißig weiterentwickelte Softwareangebote für Anwender vorzustellen, die System z-Mainframes als Plattform für die Entwicklung, die Installation und den Betrieb von Kerngeschäftsanwendungen und für die Verwaltung von Geschäftsdaten nutzen.
Die Ankündigung ist Teil der kontinuierlichen Bemühung der IBM, Kunden bei der Migration verteilter Anwendungen und Daten auf eine kostengünstigere, skalierbare und einfacher zu verwaltende, zentrale Plattform zu unterstützen. Die neue Software-Initiative erstreckt sich quer über die IBM Produktlinien für Anwendungsarchitektur, - entwicklung und -lieferung, Business Intelligence und Datenbank-Management, Transaktions-Management und IT-Service-Management.
Das wachsende Interesse von ISVs am IBM Mainframe spiegelt die Marktakzeptanz von System z als Plattform für neue Anwendungen wider. Im letzten Jahr haben sich mehr als 150 neue ISVs für die Plattform entschieden und mehr als 1.000 neue Anwendungen sind hinzugekommen.
Unter den ISVs, die kürzlich weitere Anwendungen auf System z vorgestellt haben, sind u.a. SAP, Chordiant, Temenos, i-flex, ACI und Norkom.
IBM hat heute die ersten 12 von insgesamt dreißig Softwareprodukten und Weiterentwicklungen für System z angekündigt. Bausteine für Anwendungsarchitektur, -entwicklung und -bereitstellung:
IBM Rational System Architect v11.3 und Rational Focal Point for Product and Portfolio Management v6.4 verbessern die Entscheidungsfindung und die Analyse von möglichen Auswirkungen, indem sie Blueprints von Strategie, Prozessen und IT-Infrastruktur sowie von deren Abhängigkeitsverhältnis einsetzen. Die neuen Lösungen können dabei helfen, Budget und Ressourcen durch die Verknüpfung von kritischen Geschäftsprozessen und IT effizienter einzusetzen. Sie bieten die Unternehmensplanungsstruktur und die Risikoanalyse, die für erfolgreiche Unternehmenskonsolidierung und Transformationsinitiativen nötig sind.
IBM Rational Developer for System z v7.6 unterstützt Kunden dabei, die Entwicklungsproduktivität zu steigern, Schulungskosten gering zu halten und den MIPS-Verbrauch von Mainframes zu senken. Die neue Version liefert Integrationsmöglichkeiten mit Rational Team Concert for System z v2.0, CICS v4.1, SCA, IBM Problem Determination Tools und SCM-Lösungen anderer Anbieter. Zusammen erlauben es diese Lösungen Kunden, die IBM Integrated Developer Environment zu nutzen, um die Entwicklung neuer Workloads über verschiedene Plattformen und Sprachen auf System z zu beschleunigen.
IBM Rational Developer for System z v2.0, der auf der IBM Jazz Technologieplatfform basiert, ermöglicht die gemeinschaftliche und flexible Entwicklung von Java-, C/C++, COBOL-, PL/I- und EGL-Anwendungen in dezentralisierten Mainframe-Entwicklungsteams. Die Preview-Version integriert mit dem IBM Rational Developer for System z verbesserte Unterstützung für den Aufbau von Cross-Platform-Anwendungen.
Kürzlich angekündigte und kommende IBM Software-Produkte für Business-Intelligence- und Datenbank-Technologie: InfoSphere Warehouse for System z ergänzt DB2 für z/OS um Core-Data-Warehousing und zusätzliches Analysepotenzial. Hierunter fallen verbesserte multidimensionale Berichte und Analysen. Zusätzlich bietet es universalen Zugang zu Clients wie Excel und Cognos.Cognos 8 BI for Linux on System z v8.4 bietet in einer einzigen Darstellung einen Überblick über nahezu alle Datenquellen.Die neue Version von DB2 for z/OS wird die Leistungsfähigkeit noch einmal steigern, den Aufwand für Verwaltung und Instandhaltung deutlich senken und damit die Arbeit von Anwendungsentwicklern und Datenbankadministratoren wesentlich effizienter gestalten.
Zu einem späteren Zeitpunkt in diesem Jahr wird IMS 11 verfügbar sein. Durch den gebotenen Open-Database-Support lässt sich damit die Interaktion mit anderen Anwendungen und Datenbanken einfacher, schneller und kostengünstiger implementieren.Kürzlich angekündigte IBM Software-Produkte für Transaktions-Management: CICS Transaction Server v4.1 liefert neue Features, um Organisationen dabei zu unterstützen, mit Anforderungen durch zunehmende behördliche Überprüfungen umgehen zu können, auf den demographischen Wandel zu reagieren und sich selbst so aufzustellen, dass sie neue Wachstumschancen ausnutzen können. Bestehende CICS-Programme und Ressourcen können nun Mashups, Web 2.0 und andere situationsbedingte Anwendungen nutzen. Der CICS Explorer vereinfacht auch die Entwicklung und die Verwaltung bewährter und moderner Anwendungen für die Integration mit Tools von IBM und anderen Anbietern.
WebSphere Business Events v6.2.1 for z/OS hilft Unternehmen dabei, die Auswirkungen von Geschäftsereignissen durch die Erforschung verfolgbarer Ereignismuster aufzuspüren, zu untersuchen und auf sie zu reagieren. Nutzer haben die Möglichkeit, Geschäftsereignisse zu spezifizieren und sie dann in einer CICS-Anwendung zu erfassen, ohne die Anwendung verändern zu müssen.
Produkte für das IT-Service-Management: Durch mehrere Releases ermöglicht Tivoli OMEGAMON ein integriertes Monitoring, das alle Unternehmensbereiche erfassen kann, um die höchstmögliche Leistungsfähigkeit der Anwendungen sicherzustellen. Die Lösung reduziert arbeitsintensive Analysen und senkt Reparaturzeiten, indem sie potenzielle Probleme aufzeigt, bevor eine aufwendige Recherche nötig wird.Tivoli Security Management for z/OS hilft Kunden dabei, die Sicherheitsverwaltung und das Nutzer-Management zu vereinfachen, Sicherheitskontrollen einzubauen und die Berichterstattung in Bezug auf Revisionen und Compliance zu automatisieren. Es verbessert das gesamte Sicherheitslevel, um Risiken zu senken und die Ausfallsicherheit zu erhöhen. Zudem senkt Tivoli Security Management die Kosten durch verbesserte Leistungsfähigkeit und betriebswirtschaftliche Effizienz, wenn Konsolidierungen im Bereich Security vorgenommen werden. Tivoli Key Lifecycle Management for z/OS bietet plattformunabhängige, besonders hohe Sicherheit für Unternehmensinformationen, auf die von tausenden von Anwendungen inner- und außerhalb des Unternehmens zugegriffen werden kann. Dabei setzt die Lösung auf automatisiertes Management, um die Instandhaltungskosten zu minimieren.
Tivoli Workload Scheduler v8.5 bietet nun eine neue intelligentere Ablaufplanung und erhöht den Datendurchlauf mit minimaler manueller Eingriffsnotwendigkeit durch verstärkte Automation.Kunden und ISVs vertrauen auf System z-Großrechner:Für Kunden im Bankenbereich bieten IBM und SAP eine Referenzarchitektur an, auf der SAP-Lösungen auf System z mit den WebSphere-, Tivoli- und Information-Management-Produkten betrieben werden können. Kunden können Leitfäden herunterladen, in denen basierend auf Erfahrungen bei der Implementierung umfangreicher SAP-Lösungen bei großen Banken weltweit, beschrieben wird, wie sie SAP auf System z optimieren können.
Unter den aktuellen Vertragsabschlüssen für IBM System z sind auch 40 Wettbewerbskunden. Zu den Kunden weltweit zählen zum Beispiel die HDFC Bank in Indien, Russian Railways, Travelport, Donovan Data Systems (UK), Handelsbanken (Schweden), Daishi Bank (Japan), Sun Life Financial (Canada) und das Health Insurance Institute in Slowenien. In USA setzt beispielsweise das Unternehmen Verizon Communications Inc. seine Information-Management-Software auf System z ein, um über 2,25 Milliarden Transaktionen im Monat auszuführen. Ergänzend zur Kundenakzeptanz von System z bieten mehr als 600 Ausbildungsinstitute weltweit zusammen mit IBM Kurse für die IBM System z Enterprise-Server an. IBM hat sie dabei unterstützt, Unternehmen, die Mainframes einsetzen, mit Dozenten, die die Technologie lehren, zu vernetzen. Studenten, die Kenntnisse im Bereich IBM Enterprise-Server erwerben, können beachtliche Karrierechancen erhalten. Seit 2004 haben mehr als 50.000 Studenten weltweit an der Mainframe-Ausbildung teilgenommen.
IBM unterstützt Kunden mit neuen Softwareangeboten für System z-Mainframes
Kostensenkungsmöglichkeiten und hohe Zuverlässigkeit des Großrechners geben weiteren Anreiz für ISV-Engagements und Kundeninvestitionen
Stuttgart, 8. Juni 2009: IBM hat neue Softwareangebote für System z angekündigt, die Unternehmen dabei unterstützen sollen, ihre IT-Kosten zu senken und gleichzeitig ihre Flexibilität weiter zu steigern und ihren Service zu verbessern. IBM plant darüber hinaus, im Verlauf des Jahres 2009 etwa dreißig weiterentwickelte Softwareangebote für Anwender vorzustellen, die System z-Mainframes als Plattform für die Entwicklung, die Installation und den Betrieb von Kerngeschäftsanwendungen und für die Verwaltung von Geschäftsdaten nutzen.
Die Ankündigung ist Teil der kontinuierlichen Bemühung der IBM, Kunden bei der Migration verteilter Anwendungen und Daten auf eine kostengünstigere, skalierbare und einfacher zu verwaltende, zentrale Plattform zu unterstützen. Die neue Software-Initiative erstreckt sich quer über die IBM Produktlinien für Anwendungsarchitektur, - entwicklung und -lieferung, Business Intelligence und Datenbank-Management, Transaktions-Management und IT-Service-Management.
Das wachsende Interesse von ISVs am IBM Mainframe spiegelt die Marktakzeptanz von System z als Plattform für neue Anwendungen wider. Im letzten Jahr haben sich mehr als 150 neue ISVs für die Plattform entschieden und mehr als 1.000 neue Anwendungen sind hinzugekommen.
Unter den ISVs, die kürzlich weitere Anwendungen auf System z vorgestellt haben, sind u.a. SAP, Chordiant, Temenos, i-flex, ACI und Norkom.
IBM hat heute die ersten 12 von insgesamt dreißig Softwareprodukten und Weiterentwicklungen für System z angekündigt. Bausteine für Anwendungsarchitektur, -entwicklung und -bereitstellung:
IBM Rational System Architect v11.3 und Rational Focal Point for Product and Portfolio Management v6.4 verbessern die Entscheidungsfindung und die Analyse von möglichen Auswirkungen, indem sie Blueprints von Strategie, Prozessen und IT-Infrastruktur sowie von deren Abhängigkeitsverhältnis einsetzen. Die neuen Lösungen können dabei helfen, Budget und Ressourcen durch die Verknüpfung von kritischen Geschäftsprozessen und IT effizienter einzusetzen. Sie bieten die Unternehmensplanungsstruktur und die Risikoanalyse, die für erfolgreiche Unternehmenskonsolidierung und Transformationsinitiativen nötig sind.
IBM Rational Developer for System z v7.6 unterstützt Kunden dabei, die Entwicklungsproduktivität zu steigern, Schulungskosten gering zu halten und den MIPS-Verbrauch von Mainframes zu senken. Die neue Version liefert Integrationsmöglichkeiten mit Rational Team Concert for System z v2.0, CICS v4.1, SCA, IBM Problem Determination Tools und SCM-Lösungen anderer Anbieter. Zusammen erlauben es diese Lösungen Kunden, die IBM Integrated Developer Environment zu nutzen, um die Entwicklung neuer Workloads über verschiedene Plattformen und Sprachen auf System z zu beschleunigen.
IBM Rational Developer for System z v2.0, der auf der IBM Jazz Technologieplatfform basiert, ermöglicht die gemeinschaftliche und flexible Entwicklung von Java-, C/C++, COBOL-, PL/I- und EGL-Anwendungen in dezentralisierten Mainframe-Entwicklungsteams. Die Preview-Version integriert mit dem IBM Rational Developer for System z verbesserte Unterstützung für den Aufbau von Cross-Platform-Anwendungen.
Kürzlich angekündigte und kommende IBM Software-Produkte für Business-Intelligence- und Datenbank-Technologie: InfoSphere Warehouse for System z ergänzt DB2 für z/OS um Core-Data-Warehousing und zusätzliches Analysepotenzial. Hierunter fallen verbesserte multidimensionale Berichte und Analysen. Zusätzlich bietet es universalen Zugang zu Clients wie Excel und Cognos.Cognos 8 BI for Linux on System z v8.4 bietet in einer einzigen Darstellung einen Überblick über nahezu alle Datenquellen.Die neue Version von DB2 for z/OS wird die Leistungsfähigkeit noch einmal steigern, den Aufwand für Verwaltung und Instandhaltung deutlich senken und damit die Arbeit von Anwendungsentwicklern und Datenbankadministratoren wesentlich effizienter gestalten.
Zu einem späteren Zeitpunkt in diesem Jahr wird IMS 11 verfügbar sein. Durch den gebotenen Open-Database-Support lässt sich damit die Interaktion mit anderen Anwendungen und Datenbanken einfacher, schneller und kostengünstiger implementieren.Kürzlich angekündigte IBM Software-Produkte für Transaktions-Management: CICS Transaction Server v4.1 liefert neue Features, um Organisationen dabei zu unterstützen, mit Anforderungen durch zunehmende behördliche Überprüfungen umgehen zu können, auf den demographischen Wandel zu reagieren und sich selbst so aufzustellen, dass sie neue Wachstumschancen ausnutzen können. Bestehende CICS-Programme und Ressourcen können nun Mashups, Web 2.0 und andere situationsbedingte Anwendungen nutzen. Der CICS Explorer vereinfacht auch die Entwicklung und die Verwaltung bewährter und moderner Anwendungen für die Integration mit Tools von IBM und anderen Anbietern.
WebSphere Business Events v6.2.1 for z/OS hilft Unternehmen dabei, die Auswirkungen von Geschäftsereignissen durch die Erforschung verfolgbarer Ereignismuster aufzuspüren, zu untersuchen und auf sie zu reagieren. Nutzer haben die Möglichkeit, Geschäftsereignisse zu spezifizieren und sie dann in einer CICS-Anwendung zu erfassen, ohne die Anwendung verändern zu müssen.
Produkte für das IT-Service-Management: Durch mehrere Releases ermöglicht Tivoli OMEGAMON ein integriertes Monitoring, das alle Unternehmensbereiche erfassen kann, um die höchstmögliche Leistungsfähigkeit der Anwendungen sicherzustellen. Die Lösung reduziert arbeitsintensive Analysen und senkt Reparaturzeiten, indem sie potenzielle Probleme aufzeigt, bevor eine aufwendige Recherche nötig wird.Tivoli Security Management for z/OS hilft Kunden dabei, die Sicherheitsverwaltung und das Nutzer-Management zu vereinfachen, Sicherheitskontrollen einzubauen und die Berichterstattung in Bezug auf Revisionen und Compliance zu automatisieren. Es verbessert das gesamte Sicherheitslevel, um Risiken zu senken und die Ausfallsicherheit zu erhöhen. Zudem senkt Tivoli Security Management die Kosten durch verbesserte Leistungsfähigkeit und betriebswirtschaftliche Effizienz, wenn Konsolidierungen im Bereich Security vorgenommen werden. Tivoli Key Lifecycle Management for z/OS bietet plattformunabhängige, besonders hohe Sicherheit für Unternehmensinformationen, auf die von tausenden von Anwendungen inner- und außerhalb des Unternehmens zugegriffen werden kann. Dabei setzt die Lösung auf automatisiertes Management, um die Instandhaltungskosten zu minimieren.
Tivoli Workload Scheduler v8.5 bietet nun eine neue intelligentere Ablaufplanung und erhöht den Datendurchlauf mit minimaler manueller Eingriffsnotwendigkeit durch verstärkte Automation.Kunden und ISVs vertrauen auf System z-Großrechner:Für Kunden im Bankenbereich bieten IBM und SAP eine Referenzarchitektur an, auf der SAP-Lösungen auf System z mit den WebSphere-, Tivoli- und Information-Management-Produkten betrieben werden können. Kunden können Leitfäden herunterladen, in denen basierend auf Erfahrungen bei der Implementierung umfangreicher SAP-Lösungen bei großen Banken weltweit, beschrieben wird, wie sie SAP auf System z optimieren können.
Unter den aktuellen Vertragsabschlüssen für IBM System z sind auch 40 Wettbewerbskunden. Zu den Kunden weltweit zählen zum Beispiel die HDFC Bank in Indien, Russian Railways, Travelport, Donovan Data Systems (UK), Handelsbanken (Schweden), Daishi Bank (Japan), Sun Life Financial (Canada) und das Health Insurance Institute in Slowenien. In USA setzt beispielsweise das Unternehmen Verizon Communications Inc. seine Information-Management-Software auf System z ein, um über 2,25 Milliarden Transaktionen im Monat auszuführen. Ergänzend zur Kundenakzeptanz von System z bieten mehr als 600 Ausbildungsinstitute weltweit zusammen mit IBM Kurse für die IBM System z Enterprise-Server an. IBM hat sie dabei unterstützt, Unternehmen, die Mainframes einsetzen, mit Dozenten, die die Technologie lehren, zu vernetzen. Studenten, die Kenntnisse im Bereich IBM Enterprise-Server erwerben, können beachtliche Karrierechancen erhalten. Seit 2004 haben mehr als 50.000 Studenten weltweit an der Mainframe-Ausbildung teilgenommen.
Dienstag, 26. Mai 2009
Supercomputer in Jülich eingeweiht: Europas schnellster Rechner
Jülich/Stuttgart, 26. Mai 2009: Das Forschungszentrum Jülich weiht heute offiziell in einem Festakt Europas schnellsten Supercomputer ein.Teilnehmen werden dabei die Bundesministerin für Bildung und Forschung,Prof. Dr. Annette Schavan, und der Ministerpräsident des LandesNordrhein-Westfalen, Dr. Jürgen Rüttgers. Das System mit dem Namen"Jugene", finanziert zu gleichen Teilen vom Bund und vom LandNordrhein-Westfalen, wird vom Forschungzentrum Jülich im Rahmen des „GaußCentre for Supercomputing“ (GCS) betrieben. Es leistet im Sinne dereuropäischen Forschungsförderung einen herausragenden Beitrag, umerstklassige Infrastrukturen für Spitzenforschung in Europa anzubieten.Der Supercomputer erreicht eine Spitzenrechenleistung von bis zu 1Petaflop/s (d.h. bis zu 1 Billiarde oder 10hoch15 Rechenoperationen proSekunde). Er ist damit so leistungsstark, daß er eine Million mal eineMilliarde Berechnungen pro Sekunde machen kann. Mit anderen Worten: EineMilliarde Menschen müssten jeweils pro Sekunde eine Million Berechnungenmit dem Taschenrechner durchführen, um annähernd gleich schnell zu sein. Inder Rangliste der weltweit schnellsten Supercomputer würde der Rechner nachjetzigem Stand voraussichtlich einen Platz unter den fünf schnellstenSystemen weltweit einnehmen. Die Veröffentlichung der nächstenTop500-Supercomputerliste wird für Juni 2009 erwartet."Das Forschungszentrum Jülich verbindet mit IBM eine herausragende,langjährige Zusammenarbeit im Bereich Supercomputing, die mit derEinweihung des Petaflop-Rechners einen neuen Höhepunkt erreicht", sagtMartin Jetter, Vorsitzender der Geschäftsführung, IBM Deutschland GmbH."Seit vielen Jahren kooperieren beide Partner beim Höchstleistungsrechnen.Diese Zusammenarbeit hat für den Wissenschafts- und WirtschaftsstandortDeutschland enorme Bedeutung.""Supercomputer sind eine universelle Schlüsseltechnologie und bieten unseinen völlig neuen Zugang zur Lösung der komplexesten wissenschaftlichenProbleme ", sagt Professor Achim Bachem, Vorstandsvorsitzender desForschungszentrums. "IBM und das Forschungszentrum Jülich arbeiten eng underfolgreich zusammen und bieten den europäischen Wissenschaftlern diebesten Werkzeuge für ihre Forschung."Der Rechner wird von internationalen und nationalen Forscherteams fürherausgehobene Problemstellungen und Simulationen in denWissenschaftsbereichen Physik, Chemie, Biologie, Astronomie,Materialwissenschaften und Umweltwissenschaften eingesetzt. So hilft derComputer beispielsweise dabei, die Schadstoffausbreitung in Boden undGrundwasser besser zu verstehen oder das Verhalten von Biomolekülennachzuvollziehen.Die Zusammenarbeit zwischen dem Forschungszentrum Jülich und IBM ist fürForschergruppen der verschiedensten Disziplinen nutzbringend. DieSimulation, die sich als dritte Säule der Wissenschaft neben Experiment undTheorie etabliert hat, wurde durch Supercomputing signifikantweiterentwickelt. Durch Simulationstechniken können Problemstellungengelöst werden, die anderweitig aus technischen oder sonstigen Gründen nichtbearbeitet werden könnten.Beispielsweise wurden die Arbeiten eines Forscherteams zurQuantenchromodynamik auf der Jülicher Maschine von der Zeitschrift Sciencezu den zehn wichtigsten Forschungsarbeiten weltweit im Jahr 2008 gezählt.Die Fähigkeit, durch Simulation neue Erkenntnisse zu gewinnen, hängtwesentlich von der nutzbaren Rechenleistung ab. Die Parallelität derAnwendungen und der Systeme bildet angesichts der technologischenEntwicklung eine zentrale Voraussetzung, um signifikante Steigerungen zuerzielen. Daher streben das Forschungszentrum Jülich und IBM an,Anwendungen und Systeme gemeinsam entsprechend zu optimieren.Mit dem Blue Gene-System arbeitet das Forschungszentrum Jülich auch vorallem im Bereich der hochskalierbaren Anwendungen. Jülich kooperiertdarüber hinaus als Pilotanwender mit IBM auch in der Rolle einesArchitekten künftiger HPC-Lösungen zur Vorbereitung des künftigenExaflop-Zeitalters (eine künftige Supercomputing-Klasse mit > 10hoch18Berechnungen pro Sekunde). Damit findet ein echter Wissensrückfluß zurweiteren Entwicklung von Supercomputing statt.Weitere Informationen:www.ibm.com/deepcomputingwww.fz-juelich.de/portal/presse
Mittwoch, 29. April 2009
IBM-Pressemitteilung: IDI rollt weiter
IBM kündigt neue Produkte und Services für dynamische IT-Infrastrukturen an
Anwender investieren in stärker automatisierte Betriebskonzepte zur Reduktion von Kosten und Risiken und zur Verbesserung der Servicequalität
Armonk, N.Y., USA und Stuttgart, 28. April 2009: IBM (NYSE: IBM) hat heute eine Reihe wichtiger neuer Produkte und Services vorgestellt, die IT-Infrastrukturen anpassungsfähiger und flexibler machen. Unternehmen erhalten damit die Möglichkeit, ihre Betriebskosten und Risiken zu senken sowie die Qualität von IT-Services weiter zu erhöhen. Gleichzeitig wurden eine Reihe internationaler Referenzkunden vorgestellt, die beispielhaft ihre Betriebskonzepte dynamisiert haben. Im Ergebnis können Kunden auf Veränderungen externer Faktoren und betrieblicher Belange schneller reagieren und ihre IT auf Herausforderungen einer global vernetzten Welt besser anpassen. Die heutige Ankündigung unterstützt Anwender dabei, die laufend steigende Komplexität in der betrieblichen Infrastruktur, bedingt durch den Zuwachs an zu integrierenden Komponenten und die steigende Anzahl an intelligenten Sensoren und Meßpunkten, im Griff zu behalten. Mehr noch, es lassen sich daraus zunehmend entscheidende Betriebsinformationen zum Vorteil eines Unternehmens ableiten.
IDC schätzt die Marktchance für Software, Server, Technologien und Services zum Betrieb einer immer mehr zusammenwachsenden IT- und Real-Infrastruktur verschiedenster Bereiche in der Welt (wie Verkehr, Versorgung, Produktion) auf bis zu 122 Milliarden Dollar im Jahr 2012.
"Wir bereiten unsere Kunden auf die Anforderungen der Zukunft an eine moderne IT-Infrastruktur vor", sagt Prof. Dr. Gunter Dueck, Cheftechnologe und Business Leader Dynamic Infrastructure, IBM Deutschland, "dabei liegt der Fokus auf dem Erreichen schneller, echter Geschäftsvorteile und der Auswahl der dafür richtigen Investitionen."
Ein Beispiel: So überwacht die Baader Bank AG, eine der größeren Wertpapierhandelsbanken in Deutschland, die gesamte Infrastruktur vom Netzwerk über die Server bis hin zu den Kernapplikationen mit IBM Tivoli Software und verarbeitet über 2 Millionen gemeldete Events pro Tag. Durch schnellere und bessere Fehlermeldungen und die Reduzierung von auflaufenden Meldungen kann die Baader Bank signifikante Verbesserung in puncto Produktivität, Zeitersparnis und Sicherheit verzeichnen und flexibel auf Anforderungen reagieren.
IBM kündigt heute eine große Anzahl neuer Produkte und Services an, um Kunden insgesamt dabei zu unterstützen, dynamische Infrastrukturen aufzubauen. Die neuen Lösungen adressieren dabei sowohl Groß- als auch mittelständische Unternehmen.
Dabei geht es vor allem um folgende Teilbereiche:
- Die Integration digitaler und physischer Infrastrukturen, die die Möglichkeit bieten, mittels Informationstechnologie Geschäftsprozesse und eine zunehmend intelligentere physische Infrastruktur zu verwalten und so neue und verbesserte Services zu betreiben .
- Die Fähigkeit, die 15 Petabyte an Informationen - acht mal mehr Informationen als in allen Bibliotheken in den USA zusammen - , die die Welt täglich neu hervorbringt, zu verwalten, zu speichern und zu analysieren. Dies ermöglicht es Kunden, mit den gestiegenen Anforderungen an Informationsmanagement wie rechtlichen Regelungen, Compliance, Verfügbarkeit, Datenvorhaltung, Risikomanagement und Sicherheit umzugehen.
- Eine Reduktion von Ineffizienzen und eine größere Flexibilität in der heutigen vernetzten und instrumentalisierten Welt. So haben sich zum Beispiel die Rechenzentrumskosten für Energie, Raum etc. seit 1996 verachtfacht. Die durchschnittliche Serverauslastung beträgt dagegen nur 6 bis 15 Prozent.
Ein Teil der heute vorgestellten Produkte und Services wurde auch unter Mitwirkung des deutschen IBM Entwicklungs- und Forschungslabors in Böblingen vorbereitet. Mittlerweile haben auch die ersten IBM Business Partner sich im Rahmen der Dynamic Infrastructure-Initiative ausgebildet. So wurde das Unternehmen FRITZ & MACZIOL von IBM als erster Partner in Europa zum Thema "Dynamic Infrastructure" zertifiziert.
- Seit der Vorstellung des Dynamic Infrastructure-Konzepts von IBM im Februar 2009 haben sich bereits mehr als 5000 Kunden weltweit bei über 100 Veranstaltungen in 23 Ländern über die Möglichkeiten dieses Ansatzes im Hinblick auf die Anforderungen an künftige IT-Infrastrukturen informieren lassen.
- Über 100 Veranstaltungen wurden weltweit auch in den IBM Business Partner Centern für Kunden durchgeführt. Dynamische Infrastrukturen können die IT-Kosten verringern, Risiken reduzieren und die globale Integration fördern.
Cloud Computing ist ein zentrales Konzept für diese Form von Optimierung. Mit der "Erfahrungswelt der IT-Transformation" bietet IBM Kunden auf Basis eines neuen interaktiven und dialogorientierten Workshops den Einstieg und entwickelt mit den Teilnehmern eine Roadmap zur eigenen IT-Transformation.Die neuen Produkte und Services zum Betriebskonzept einer dynamischen Infrastruktur umfassen:
- Einen neuen Beratungsservice - die IT-Optimierungs-Business-Value-Roadmap - um Kunden mit multiplen IT-Projekten dabei zu unterstützen, in der gegenwärtigen wirtschaftlichen Situationen Projektprioritäten zu überprüfen und Ressourcen besser einteilen zu können. Dieser Service kann Kunden dabei helfen, einen Optimierungsplan aufzusetzen, der bis zu 40 Prozent an Kosten einsparen kann, und künftige IT-Projekte auf Schlüssel-Geschäftsprioritäten fokussiert. Zusätzlich können mit der IBM Going Green Impact Analyse die effektivsten Lösungen für die Steigerung der Energieeffizienz und Senkung der Gesamtbetriebskosten (TCO) eines Rechenzentrums identifiziert und priorisiert werden. Nach Umsetzung erforderlicher Maßnahmen bietet IBM gemeinsam mit TÜV Rheinland oder der DEKRA eine Energieeffizienz-Zertifizierung des Rechenzentrums an.
- Zwei neue IBM System x Appliances für System- und Anwendungsmonitoring und Servicerequest-Verwaltung. - Das IBM Service-Management-Center für Cloud-Computing, das jetzt IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security und IBM Tivoli Security Management für z/OS umfasst. Die übergreifende IBM Lösung stellt die notwendigen Werkzeuge und Verfahren bereit, mit denen der Lebenszyklus von Cloud-Services von der Servicedefinition bis zur Beendigung des Service verwaltet werden kann. Das IBM Service Management Center unterstützt sowohl die Bereitstellung virtueller Ressourcen als auch die Optimierung virtueller Operationen.
- Die neue Software IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security sowie IBM Tivoli Security Management für z/OS ergänzen das IBM Service Management Center for Cloud Computing, eine Zusammenstellung von Ressourcen, um Cloud-Umgebungen zu verwalten.
- Die neue Software IBM Telelogic System Architect ermöglicht es Organisationen, die Auswirkungen des Einsatzes einer Cloud-Umgebung zu visualisieren und zu verstehen. Sie bietet einen Prozessablauf für die Entwicklung von Software-Komponenten, die sich an der Cloud-Strategie ausrichten. Zusätzlich unterstützt die Integration von Telelogic Focal Point die IT-Verantwortlichen dabei, das Feedback von Anwendern im Unternehmen zu sammeln, um strategische Entscheidungen zu erleichtern, Aktivitäten zu gewichten und Projektpläne für den Einsatz von Cloud Computing mit größtmöglicher Wertschöpfung zu entwickeln.
- Der neue IBM Tivoli Foundations Application Manager und der IBM Foundations Service Manager stellen Angebote für System- und Application-Monitoring sowie Service-Request-Managemet bereit, die auf einer Out-of-the-box-System x-Appliance basieren. Die Sichtbarkeit, Kontrolle und Automatisierung, die der Tivoli Foundations Application Manager und der Tivoli Foundations Service Manager ermöglichen, eignen sich besonders für kleine und mittlere Unternehmen, die Kosten reduzieren, Risiken managen und ihre Servicequalität verbessern möchten.Neue Infrastrukturangebote, die Kunden bei Kosteneinsparungen und höherer Energieeffizienz unterstützen sollen:
- Ein neues IBM Business Partner-Programm - Ready for Energy and Environment, das Partnerlösungen, die Kunden bei Energieeffizienz und Kosteneinsparungen helfen sollen, zertifiziert. - Die POWER6+ Mikroprozessor-Technologie bietet gegenüber früheren Systemen eine Leistungssteigerung um bis zu 10 Prozent und kann den Energieverbrauch um bis zu 30 Prozent senken. In POWER6+ sind Features enthalten, die Software-Anwendungen verlässlicher machen und Ausfällen vorbeugen können.
- Die neuen Blade-Server BladeCenter JS23 und JS43 Express sind POWER6+
-Blades für 64-bit-Anwendungen auf IBM i-, AIX- oder Linux-Betriebssystemen. Durch den Einsatz von POWER6+ liefern sie Leistungsverbesserungen von bis zu 20 Prozent gegenüber früheren Versionen.
- Die neuen IBM Power 520 und 550 Express-Server mit POWER6+ Prozessoren (bis zu 5 GHz), die Kunden eine Flächeneinsparung im Serverbetrieb von bis zu 92 Prozent durch Konsolidierung ermöglichen.
- Eine branchenweit erstmalig vorgestellte Virtualisierungssoftware-Eigenschaft
- IBM PowerVM Active Memory Sharing, die es ermöglicht, Hauptspeicher automatisch von einem virtuellen Server oder einen logischen Partition zum nächsten zu verschieben
- für erhöhte Auslastung und Flexibilität bei der Nutzung von Hauptspeicher. Mit dieser Software kann Hauptspeicher gepooled und an fluktuierende Arbeitslasten angepasst werden.
- Zwei neue System x-Server mit der aktuellen x86-Technologie und der vierten Generation der IBM X-Architektur: Die 2-Sockel-Tower-Server x3400 M2 und x3500 M2.
Die Systeme verfügen über neue Wärmeableitungsdesigns, neue Spannungsregler und eine höhere Integration auf der Platine, um die Stromversorgung zu verbessern und Verteilungsverluste zu vermindern. Dabei wird im Vergleich zu Vorgängersystemen eine Energieeffizienz von mehr als 92 Prozent erreicht und eine annähernd sechzigprozentige Reduktion im Stromverbrauch, wenn die Systeme nicht ausgelastet sind bzw. um bis zu fünfundzwanzig Prozent, wenn die Systeme voll ausgelastet sind. Weitere neue Technologien in den Systemen umfassen System-Management-Tools wie das Integrated Management Module, das Unified Extensible Firmware Interface (UEFI) sowie Systems Director and Tools Center, die Kunden dabei unterstützt, virtuelle Infrastrukturen mit weniger Hardware aufzubauen. Kunden können eine 11:1-Konsolidierung erreichen, wenn sie von x86-Servern der Generation aus dem Jahr 2005 auf IBM HS22-Blades migrieren; beim Übergang auf x3650 M2-Server lässt sich eine geschätzte 9:1-Konsolidierung erreichen.
- Neu vorgestellt wurde auch ein überarbeiteter IBM Cluster 1350, eine vollintegrierte Lösung für den HPC-Bereich, der die Strom- und Kühlkosten um bis zu fünfzig Prozent senken konnte.
- Die neuen Software-Angebote IBM Tivoli Monitoring for Energy Management und Tivoli Business Service Manager ermöglichen es Kunden, Daten aus intelligenten Sensoren und anderen Quellen zu ziehen, um durch die Erfassung des Energieverbrauchs von IT und Facility-Ressourcen den Energiebedarf im gesamten Unternehmen und in der IT-Infrastruktur zu verwalten.Neue Angebote zur Verwaltung, Analyse, Speicherung und Sicherung ständig steigender Informationsmengen:- Eine neue Risikomanagement- und Business-Intelligence-Software für System z-Mainframes: Der ACI Proactive Risk Manager (PRM) für System z wurde dafür entwickelt, Betrugsversuchsseinschätzungen bei hohen Transaktionsraten im Kreditkartengeschäft vorzunehmen, wenn es um die Frage geht, ob im Rahmen eines Autorisierungsprozesses eine Transaktion genehmigt oder gestoppt wird. - Eine neue Version des IBM System Storage DS5000, die selbstverschlüsselnde Plattentechnologie für Midmarket-Kunden enthält. Damit werden Daten automatisch gegen nichtautorisierten Zugriff geschützt. Die Lösung unterstützt Kunden so bei der Erfüllung regulatorischer Auflagen. Weitere Verbesserungen umfassen schnellere 8-Gbps-Adapter sowie eine erhöhte Kapazität von bis zu 448 Plattenlaufwerken in einem einzigen System.- IBM Cognos 8 Business Intelligence für Linux auf System z stellt einen schnellen Zugang zu den aktuellsten Geschäftsinformationen von praktisch jedem Ort bereit und unterstützt Handheld-Geräte wie BlackBerries.- Die neue Entwicklungssoftware IBM Rational AppScan On Demand unterstützt Unternehmen dabei, Risiken zu minimieren, indem sie sicherstellt, dass Web-Anwendungen in der Cloud sicher und compliant sind und mit den Geschäftsgrundsätzen übereinstimmen. Sie trägt Sorge dafür, dass Anwendungen frei von Viren, Würmern, Trojanern und anderen Arten von Schadsoftware sind, die immer ausgeklügelter werden.
- Eine neue Version des Tivoli Storage Productivity Center stellt neue Performance-Analyse-Werkzeuge und individuelle Zuschnittsmöglichkeiten bereit, die IT-Administratoren in die Lage versetzen können, sehr große Speicherumgebungen verwalten zu können.Gleichzeitig läßt sich dabei die Systemleistung insgesamt verbessern, die Komplexität vermindern und die Verfügbarkeit erhöhen. Die neue Analysetechnologie hilft bei der Feststellung von Hot Spots für eine bessere Problembestimmung und schnellem Tuning um die Storage-Auslastung zu optimieren. Die Software bietet darüber hinaus erweiterten heterogenen Plattform-Support sowie Sicherheitsmerkmale für Multi-Vendor-Speicherumgebungen.
Neue Networking-Angebote-
IBM hat heute neu Hardware, Software und Services vorgestellt, um die Netzwerk-Konnektivität im Rahmen größerer Infrastruktureffizienz zu verbessern. Auf Basis der langjährigen Erfahrung im Networking stellt IBM dabei ein neues Serviceangebot vor: die IBM Networking, Strategy, Optimization and Implementation Services für Konsolidierung und Virtualisierung- Als Teil der heutigen Ankündigung erweitert IBM auch die Auswahlmöglichkeit für Netzwerkkonnektivität. Dabei wird die OEM-Vereinbarung mit Brocade erweitert zur Vorstellung einer neuen Familie von Ethernet-Switches und Routern mit IBM Logo. Diese ergänzen die gegenwärtigen Angebote. IBM hat darüber die Zusammenarbeit mit Juniper ausgeweitet. Im Februar haben beide Unternehmen hybride Public-Private-Cloud-Möglichkeiten vorgeführt. Als Teil der heutigen Ankündigung hat IBM auch neue Finanzierungsoptionen vorgestellt, um die Beschaffung von Produkten und Services aus dem Dynamic Infrastructure-Portfolio zu erleichtern.
Weitere Informationen: www.ibm.com/dynamicinfrastructure
Anwender investieren in stärker automatisierte Betriebskonzepte zur Reduktion von Kosten und Risiken und zur Verbesserung der Servicequalität
Armonk, N.Y., USA und Stuttgart, 28. April 2009: IBM (NYSE: IBM) hat heute eine Reihe wichtiger neuer Produkte und Services vorgestellt, die IT-Infrastrukturen anpassungsfähiger und flexibler machen. Unternehmen erhalten damit die Möglichkeit, ihre Betriebskosten und Risiken zu senken sowie die Qualität von IT-Services weiter zu erhöhen. Gleichzeitig wurden eine Reihe internationaler Referenzkunden vorgestellt, die beispielhaft ihre Betriebskonzepte dynamisiert haben. Im Ergebnis können Kunden auf Veränderungen externer Faktoren und betrieblicher Belange schneller reagieren und ihre IT auf Herausforderungen einer global vernetzten Welt besser anpassen. Die heutige Ankündigung unterstützt Anwender dabei, die laufend steigende Komplexität in der betrieblichen Infrastruktur, bedingt durch den Zuwachs an zu integrierenden Komponenten und die steigende Anzahl an intelligenten Sensoren und Meßpunkten, im Griff zu behalten. Mehr noch, es lassen sich daraus zunehmend entscheidende Betriebsinformationen zum Vorteil eines Unternehmens ableiten.
IDC schätzt die Marktchance für Software, Server, Technologien und Services zum Betrieb einer immer mehr zusammenwachsenden IT- und Real-Infrastruktur verschiedenster Bereiche in der Welt (wie Verkehr, Versorgung, Produktion) auf bis zu 122 Milliarden Dollar im Jahr 2012.
"Wir bereiten unsere Kunden auf die Anforderungen der Zukunft an eine moderne IT-Infrastruktur vor", sagt Prof. Dr. Gunter Dueck, Cheftechnologe und Business Leader Dynamic Infrastructure, IBM Deutschland, "dabei liegt der Fokus auf dem Erreichen schneller, echter Geschäftsvorteile und der Auswahl der dafür richtigen Investitionen."
Ein Beispiel: So überwacht die Baader Bank AG, eine der größeren Wertpapierhandelsbanken in Deutschland, die gesamte Infrastruktur vom Netzwerk über die Server bis hin zu den Kernapplikationen mit IBM Tivoli Software und verarbeitet über 2 Millionen gemeldete Events pro Tag. Durch schnellere und bessere Fehlermeldungen und die Reduzierung von auflaufenden Meldungen kann die Baader Bank signifikante Verbesserung in puncto Produktivität, Zeitersparnis und Sicherheit verzeichnen und flexibel auf Anforderungen reagieren.
IBM kündigt heute eine große Anzahl neuer Produkte und Services an, um Kunden insgesamt dabei zu unterstützen, dynamische Infrastrukturen aufzubauen. Die neuen Lösungen adressieren dabei sowohl Groß- als auch mittelständische Unternehmen.
Dabei geht es vor allem um folgende Teilbereiche:
- Die Integration digitaler und physischer Infrastrukturen, die die Möglichkeit bieten, mittels Informationstechnologie Geschäftsprozesse und eine zunehmend intelligentere physische Infrastruktur zu verwalten und so neue und verbesserte Services zu betreiben .
- Die Fähigkeit, die 15 Petabyte an Informationen - acht mal mehr Informationen als in allen Bibliotheken in den USA zusammen - , die die Welt täglich neu hervorbringt, zu verwalten, zu speichern und zu analysieren. Dies ermöglicht es Kunden, mit den gestiegenen Anforderungen an Informationsmanagement wie rechtlichen Regelungen, Compliance, Verfügbarkeit, Datenvorhaltung, Risikomanagement und Sicherheit umzugehen.
- Eine Reduktion von Ineffizienzen und eine größere Flexibilität in der heutigen vernetzten und instrumentalisierten Welt. So haben sich zum Beispiel die Rechenzentrumskosten für Energie, Raum etc. seit 1996 verachtfacht. Die durchschnittliche Serverauslastung beträgt dagegen nur 6 bis 15 Prozent.
Ein Teil der heute vorgestellten Produkte und Services wurde auch unter Mitwirkung des deutschen IBM Entwicklungs- und Forschungslabors in Böblingen vorbereitet. Mittlerweile haben auch die ersten IBM Business Partner sich im Rahmen der Dynamic Infrastructure-Initiative ausgebildet. So wurde das Unternehmen FRITZ & MACZIOL von IBM als erster Partner in Europa zum Thema "Dynamic Infrastructure" zertifiziert.
- Seit der Vorstellung des Dynamic Infrastructure-Konzepts von IBM im Februar 2009 haben sich bereits mehr als 5000 Kunden weltweit bei über 100 Veranstaltungen in 23 Ländern über die Möglichkeiten dieses Ansatzes im Hinblick auf die Anforderungen an künftige IT-Infrastrukturen informieren lassen.
- Über 100 Veranstaltungen wurden weltweit auch in den IBM Business Partner Centern für Kunden durchgeführt. Dynamische Infrastrukturen können die IT-Kosten verringern, Risiken reduzieren und die globale Integration fördern.
Cloud Computing ist ein zentrales Konzept für diese Form von Optimierung. Mit der "Erfahrungswelt der IT-Transformation" bietet IBM Kunden auf Basis eines neuen interaktiven und dialogorientierten Workshops den Einstieg und entwickelt mit den Teilnehmern eine Roadmap zur eigenen IT-Transformation.Die neuen Produkte und Services zum Betriebskonzept einer dynamischen Infrastruktur umfassen:
- Einen neuen Beratungsservice - die IT-Optimierungs-Business-Value-Roadmap - um Kunden mit multiplen IT-Projekten dabei zu unterstützen, in der gegenwärtigen wirtschaftlichen Situationen Projektprioritäten zu überprüfen und Ressourcen besser einteilen zu können. Dieser Service kann Kunden dabei helfen, einen Optimierungsplan aufzusetzen, der bis zu 40 Prozent an Kosten einsparen kann, und künftige IT-Projekte auf Schlüssel-Geschäftsprioritäten fokussiert. Zusätzlich können mit der IBM Going Green Impact Analyse die effektivsten Lösungen für die Steigerung der Energieeffizienz und Senkung der Gesamtbetriebskosten (TCO) eines Rechenzentrums identifiziert und priorisiert werden. Nach Umsetzung erforderlicher Maßnahmen bietet IBM gemeinsam mit TÜV Rheinland oder der DEKRA eine Energieeffizienz-Zertifizierung des Rechenzentrums an.
- Zwei neue IBM System x Appliances für System- und Anwendungsmonitoring und Servicerequest-Verwaltung. - Das IBM Service-Management-Center für Cloud-Computing, das jetzt IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security und IBM Tivoli Security Management für z/OS umfasst. Die übergreifende IBM Lösung stellt die notwendigen Werkzeuge und Verfahren bereit, mit denen der Lebenszyklus von Cloud-Services von der Servicedefinition bis zur Beendigung des Service verwaltet werden kann. Das IBM Service Management Center unterstützt sowohl die Bereitstellung virtueller Ressourcen als auch die Optimierung virtueller Operationen.
- Die neue Software IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security sowie IBM Tivoli Security Management für z/OS ergänzen das IBM Service Management Center for Cloud Computing, eine Zusammenstellung von Ressourcen, um Cloud-Umgebungen zu verwalten.
- Die neue Software IBM Telelogic System Architect ermöglicht es Organisationen, die Auswirkungen des Einsatzes einer Cloud-Umgebung zu visualisieren und zu verstehen. Sie bietet einen Prozessablauf für die Entwicklung von Software-Komponenten, die sich an der Cloud-Strategie ausrichten. Zusätzlich unterstützt die Integration von Telelogic Focal Point die IT-Verantwortlichen dabei, das Feedback von Anwendern im Unternehmen zu sammeln, um strategische Entscheidungen zu erleichtern, Aktivitäten zu gewichten und Projektpläne für den Einsatz von Cloud Computing mit größtmöglicher Wertschöpfung zu entwickeln.
- Der neue IBM Tivoli Foundations Application Manager und der IBM Foundations Service Manager stellen Angebote für System- und Application-Monitoring sowie Service-Request-Managemet bereit, die auf einer Out-of-the-box-System x-Appliance basieren. Die Sichtbarkeit, Kontrolle und Automatisierung, die der Tivoli Foundations Application Manager und der Tivoli Foundations Service Manager ermöglichen, eignen sich besonders für kleine und mittlere Unternehmen, die Kosten reduzieren, Risiken managen und ihre Servicequalität verbessern möchten.Neue Infrastrukturangebote, die Kunden bei Kosteneinsparungen und höherer Energieeffizienz unterstützen sollen:
- Ein neues IBM Business Partner-Programm - Ready for Energy and Environment, das Partnerlösungen, die Kunden bei Energieeffizienz und Kosteneinsparungen helfen sollen, zertifiziert. - Die POWER6+ Mikroprozessor-Technologie bietet gegenüber früheren Systemen eine Leistungssteigerung um bis zu 10 Prozent und kann den Energieverbrauch um bis zu 30 Prozent senken. In POWER6+ sind Features enthalten, die Software-Anwendungen verlässlicher machen und Ausfällen vorbeugen können.
- Die neuen Blade-Server BladeCenter JS23 und JS43 Express sind POWER6+
-Blades für 64-bit-Anwendungen auf IBM i-, AIX- oder Linux-Betriebssystemen. Durch den Einsatz von POWER6+ liefern sie Leistungsverbesserungen von bis zu 20 Prozent gegenüber früheren Versionen.
- Die neuen IBM Power 520 und 550 Express-Server mit POWER6+ Prozessoren (bis zu 5 GHz), die Kunden eine Flächeneinsparung im Serverbetrieb von bis zu 92 Prozent durch Konsolidierung ermöglichen.
- Eine branchenweit erstmalig vorgestellte Virtualisierungssoftware-Eigenschaft
- IBM PowerVM Active Memory Sharing, die es ermöglicht, Hauptspeicher automatisch von einem virtuellen Server oder einen logischen Partition zum nächsten zu verschieben
- für erhöhte Auslastung und Flexibilität bei der Nutzung von Hauptspeicher. Mit dieser Software kann Hauptspeicher gepooled und an fluktuierende Arbeitslasten angepasst werden.
- Zwei neue System x-Server mit der aktuellen x86-Technologie und der vierten Generation der IBM X-Architektur: Die 2-Sockel-Tower-Server x3400 M2 und x3500 M2.
Die Systeme verfügen über neue Wärmeableitungsdesigns, neue Spannungsregler und eine höhere Integration auf der Platine, um die Stromversorgung zu verbessern und Verteilungsverluste zu vermindern. Dabei wird im Vergleich zu Vorgängersystemen eine Energieeffizienz von mehr als 92 Prozent erreicht und eine annähernd sechzigprozentige Reduktion im Stromverbrauch, wenn die Systeme nicht ausgelastet sind bzw. um bis zu fünfundzwanzig Prozent, wenn die Systeme voll ausgelastet sind. Weitere neue Technologien in den Systemen umfassen System-Management-Tools wie das Integrated Management Module, das Unified Extensible Firmware Interface (UEFI) sowie Systems Director and Tools Center, die Kunden dabei unterstützt, virtuelle Infrastrukturen mit weniger Hardware aufzubauen. Kunden können eine 11:1-Konsolidierung erreichen, wenn sie von x86-Servern der Generation aus dem Jahr 2005 auf IBM HS22-Blades migrieren; beim Übergang auf x3650 M2-Server lässt sich eine geschätzte 9:1-Konsolidierung erreichen.
- Neu vorgestellt wurde auch ein überarbeiteter IBM Cluster 1350, eine vollintegrierte Lösung für den HPC-Bereich, der die Strom- und Kühlkosten um bis zu fünfzig Prozent senken konnte.
- Die neuen Software-Angebote IBM Tivoli Monitoring for Energy Management und Tivoli Business Service Manager ermöglichen es Kunden, Daten aus intelligenten Sensoren und anderen Quellen zu ziehen, um durch die Erfassung des Energieverbrauchs von IT und Facility-Ressourcen den Energiebedarf im gesamten Unternehmen und in der IT-Infrastruktur zu verwalten.Neue Angebote zur Verwaltung, Analyse, Speicherung und Sicherung ständig steigender Informationsmengen:- Eine neue Risikomanagement- und Business-Intelligence-Software für System z-Mainframes: Der ACI Proactive Risk Manager (PRM) für System z wurde dafür entwickelt, Betrugsversuchsseinschätzungen bei hohen Transaktionsraten im Kreditkartengeschäft vorzunehmen, wenn es um die Frage geht, ob im Rahmen eines Autorisierungsprozesses eine Transaktion genehmigt oder gestoppt wird. - Eine neue Version des IBM System Storage DS5000, die selbstverschlüsselnde Plattentechnologie für Midmarket-Kunden enthält. Damit werden Daten automatisch gegen nichtautorisierten Zugriff geschützt. Die Lösung unterstützt Kunden so bei der Erfüllung regulatorischer Auflagen. Weitere Verbesserungen umfassen schnellere 8-Gbps-Adapter sowie eine erhöhte Kapazität von bis zu 448 Plattenlaufwerken in einem einzigen System.- IBM Cognos 8 Business Intelligence für Linux auf System z stellt einen schnellen Zugang zu den aktuellsten Geschäftsinformationen von praktisch jedem Ort bereit und unterstützt Handheld-Geräte wie BlackBerries.- Die neue Entwicklungssoftware IBM Rational AppScan On Demand unterstützt Unternehmen dabei, Risiken zu minimieren, indem sie sicherstellt, dass Web-Anwendungen in der Cloud sicher und compliant sind und mit den Geschäftsgrundsätzen übereinstimmen. Sie trägt Sorge dafür, dass Anwendungen frei von Viren, Würmern, Trojanern und anderen Arten von Schadsoftware sind, die immer ausgeklügelter werden.
- Eine neue Version des Tivoli Storage Productivity Center stellt neue Performance-Analyse-Werkzeuge und individuelle Zuschnittsmöglichkeiten bereit, die IT-Administratoren in die Lage versetzen können, sehr große Speicherumgebungen verwalten zu können.Gleichzeitig läßt sich dabei die Systemleistung insgesamt verbessern, die Komplexität vermindern und die Verfügbarkeit erhöhen. Die neue Analysetechnologie hilft bei der Feststellung von Hot Spots für eine bessere Problembestimmung und schnellem Tuning um die Storage-Auslastung zu optimieren. Die Software bietet darüber hinaus erweiterten heterogenen Plattform-Support sowie Sicherheitsmerkmale für Multi-Vendor-Speicherumgebungen.
Neue Networking-Angebote-
IBM hat heute neu Hardware, Software und Services vorgestellt, um die Netzwerk-Konnektivität im Rahmen größerer Infrastruktureffizienz zu verbessern. Auf Basis der langjährigen Erfahrung im Networking stellt IBM dabei ein neues Serviceangebot vor: die IBM Networking, Strategy, Optimization and Implementation Services für Konsolidierung und Virtualisierung- Als Teil der heutigen Ankündigung erweitert IBM auch die Auswahlmöglichkeit für Netzwerkkonnektivität. Dabei wird die OEM-Vereinbarung mit Brocade erweitert zur Vorstellung einer neuen Familie von Ethernet-Switches und Routern mit IBM Logo. Diese ergänzen die gegenwärtigen Angebote. IBM hat darüber die Zusammenarbeit mit Juniper ausgeweitet. Im Februar haben beide Unternehmen hybride Public-Private-Cloud-Möglichkeiten vorgeführt. Als Teil der heutigen Ankündigung hat IBM auch neue Finanzierungsoptionen vorgestellt, um die Beschaffung von Produkten und Services aus dem Dynamic Infrastructure-Portfolio zu erleichtern.
Weitere Informationen: www.ibm.com/dynamicinfrastructure
Montag, 13. April 2009
Die 5.000.000.000-Dollar-Wette (Part 3)
Die Väter der /360: Gene Amdahl, Frederic Brooks, Gerrit Blaauw
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Die Blaauw‑Pause
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie
WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie
WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«
Sonntag, 12. April 2009
Die 5.000.000.000-Dollar-Wette (Part 2)
Größer als das Manhattan-Project
Um die Größe und Grandiosität dieser Ankündigung zu verstehen, muß man die Hintergründe durchleuchten, die zu diesem spektakulären Ereignis führten. Warum zum Beispiel hatten sich damals, im Januar 1961, bei der Sitzung des Topmanagements, die Technologen durchsetzen können? Wieso hatte das Topmanagement seine Zustimmung zu einem Projekt erteilt, bei dem die Firma ihre gesamte Existenz aufs Spiel setzte? Antwort: IBM befand sich in einem technologischen Rückstand. Ihre Produktlinien waren zur Jahreswende 1961/62 ausgereizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachstumsraten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachstum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Lichtblick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das genug für eine Firma, die zuvor alle vier Jahre ihre Umsätze verdoppelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorgsam gehüteten Marktanteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Corporation of America oder Honeywell traten auf, während sich die alten Kontrahenten durch Aufkäufe vergrößerten. Mehr noch: die Konkurrenz begann, das Geschäft mit kompatiblen Rechnern zu entdecken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Vergangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Calculator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnettrommel als Hauptspeicher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avantgarde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Monatsmiete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerechnet, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnettrommeln zu vermieten. Ein Vermögen würde indes die Gesellschaft erwirtschaften, wenn sie gar 250 Maschinen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurückgezogen wurde, waren mehrere Tausend dieser Rechner verkauft worden. So wurde diese primitive Maschine der erste massenproduzierte Rechner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Transistorrechner Univac 80 genau gegen diesen Magnettrommelrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel abzeichnete, die Wettbewerber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus diesem Dilemma befreien ‑ und sich diesmal an die Spitze der Revolution stellen. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu lassen, bestand darin, viel Geld anzufassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von Innovationen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vice President T. Vincent (Vin) Learson seinen Chef nachdrücklich aufmerksam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilemma befreien. Watson spürte selbst »den Druck des Marktes«. Er ahnte, dass er alles auf eine Karte setzen musste. Die Lage war brenzlig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Superlativen gefeiert wurde. »Es war die größte industrielle Investition, die jemals in der Industriegeschichte von einem Privatunternehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Serie fünf Milliarden Dollar auf. Das entsprach 1966 den gesamten Einnahmen aller Computerhersteller der Welt«, staunte 1970 der Spiegel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lücke«.[3] In der Tat ‑ rund 4,5 Milliarden Dollar Kapitalinvestitionen für Fabriken, Ausrüstung und Mietmaschinen hatte IBM im Umfeld der /360‑Ankündigung aufgebracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Entwicklung. Zum Vergleich: Für ENIAC, für den ersten praxiserprobten Röhrenrechner der USA, waren bis zu seiner Inbetriebnahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar geflossen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Entwicklung des Jumbos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Milliarde Dollar investieren. Der französische Starpublizist Jean‑Jacques Servan‑Schreiber staunte 1967 in seinem Bestseller »Die amerikanische Herausforderung« über IBMs Aufwand, den er in jenen Kategorien sah, in die eigentlich nur noch der moderne Staat dachte: »Das entspricht der jährlichen Gesamtinvestition der Vereinigten Staaten, die Regierungsgelder einbegriffen, für Raumforschung.« Zum Vergleich: Das Manhattan‑Project, das nach dem japanischen Angriff auf Pearl Harbor am 7. Dezember 1941 der damalige US‑Präsident Franklin Roosevelt als geheime Operation gestartet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Milliarden Dollar gekostet und die USA zur ersten Nuklearmacht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhattan‑Project mitgewirkt, das in Los Alamos sein Zentrum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor beschäftigt«, erinnerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unterfangen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Erde präsent war, konnte auf eine Ingenieurs‑Elite zurückgreifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfügung stand. Ihre Techno‑Offensive erreichte mit der Vorbereitung und Vermarktung der /360 einen solchen Druck, daß ihr Mitbewerber vorwarfen, Ingenieurs‑Intelligenz zu monopolisieren. Servan‑Schreiber behauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Goldpreisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Konkurrenz buhlte weltweit um diese Intelligenz‑Ressource, die unglaublich viel zum Wohlstand und zur technologischen Überlegenheit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Höhepunkt.
Hatte der Krieg beim Manhattan Project Physiker und Mathematiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA vertrieben, so war es jetzt die Macht der Dollars, die das human capital nach Nordamerika lockte. Das Wirtschaftsmagazin Business Week stellte im September 1967 fest, dass allein zwischen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Ausland in die USA gekommen waren, ein starkes Drittel davon aus Europa. Kurzum: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vorzeige‑Unternehmen dieser Ära werden.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment misslingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamble«, wie Fortune im September 1966 titelte. Es war die »riskanteste Geschäftsentscheidung«, die bis dahin ein Unternehmen gefällt hatte. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwischen 1961 und 1967 von 150 Millionen Dollar auf satte 1,16 Milliarden Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Abenteuer gestartet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Seine Begründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Größenordnung der IBM jährlich um zehn bis 20 Prozent wächst, während die Volkswirtschaften der großen Industrienationen sich mit einer Rate von zwei Prozent begnügen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz umgerechnet zehn Prozent des Bruttosozialproduktes des Vereinigten Königreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spitzenbeamten Simon Nora und Alain Minc auf, in ihrer Bestseller‑Studie »Die Informatisierung der Gesellschaft« die Europäer zum Gegenangriff aufzurufen. »Die Politik muss vor allem die neuartige Herausforderung durch IBM berücksichtigen: Gestern noch Rechnerhersteller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Unternehmen eine Strategie, die es in die Lage versetzt, ein Nachrichtennetz zu errichten und zu kontrollieren. Es greift damit in eine Sphäre ein, die traditionell eine Staatsdomäne ist.«
Deshalb rieten die beiden Autoren dazu, eine internationale »Allianz der Fernmeldegesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Politik war Big Blue so stark, dass sie die Souveränität und Legitimation der Nationalstaaten gefährdet sahen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unternehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war niemand bereit, noch einmal wegen einer technologischen Herausforderung die gesamte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell entwickelt, das weitgehend dem entsprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vision. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbildeten, die im Kleinen durchaus denen der Computer ähnelten. Die Schaltbilder der Chips und die der Telekomnetze, mit deren Elektronisierung justament begonnen wurde, unterschieden sich optisch lediglich in den Dimensionen. Man brauchte nur eine schnelle Verbindung zwischen den Rechnern, um sie genau so einzuweben wie das Telefon ins Fernmeldenetz. Die Telekomgesellschaften verhinderten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Network‑Computings. IBM mußte deshalb in das Telekommunikationsgeschäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durchbruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem weltweiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmeldegesellschaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Telekoms gehörten außerdem zu ihren größten Kunden. Einen derartigen Angriff durch die mächtigste Computerfirma der Welt auf ihre wichtigsten Geldquellen hätten die Regierungen nie zugelassen. So musste sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das Internet. Es legte eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chaotisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staatlichen Widersachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits exemplifiziert hatte. Und hätte Big Blue in ihre eigene Geschichte hineingeschaut, dann hätte sie gesehen, dass bei aller kollektiven Genialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann gewinnt der Erfolg den Erfolg aus sich selbst. Er managt sich von allein.
Auf jeden Fall hatten Big Blues Technostrategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde abgewürgt. Das Management des Multis zog nicht mit. Es hatte sich dem Codex des späten 20. Jahrhunderts verpflichtet: es wollte überall als good citizen gelten, als braver, biederer und angepasster Bürger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräfte erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Cary dachte nur noch in business cases, in kleinen überschaubaren Projekten, die einen schnellen Return on Investment brachten. Das war die neue political correctness, der alle IBMer treublau folgten. An milliardenschweren, langwierigen und riskanten Projekten war Cary nicht interessiert. Er war kein Watson, der akzeptieren konnte, dass Technologen mitunter intelligenter sind als Manager. Watson wusste, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder einfach in Labors verkümmern lassen. Die IBM der kleinen Schritte war geboren.
Der brain drain, der zuvor in Richtung Big Blue gezogen war, wechselte zu den Wettbewerbern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mächtig hatte werden lassen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. haben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ihre ganze unternehmerische Stärke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeitraum von 1946 bis 1956 gewesen. In dieser Zeit waren beide nach außen hin eher unauffällig gewesen. Sie hatten sich internen Herausforderungen gestellt wie der Konzentration auf das Tabelliermaschinengeschäft (Watson Sen.) in den zwanziger Jahren oder der Umstellung auf die Elektronik (Watson Jun.) in den fünfziger Jahren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transformation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM ebenfalls an den Aufbau einer solchen neuen Autorität denken müssen. Und in der Tat wurde sie Mitte der achtziger Jahre in der Person von John Akers sichtbar. 1985 wurde er Chief Executive, ein Jahr später ihr Chairman. Aber er war ein vaterloser Watson, eine Kopfgeburt. Kein Unternehmer vom Schlage des extravaganten Charles Flint oder des patriarchalischen Watson Senior stand während der Aufbauzeit hinter ihm. So konnte Akers Mitte der siebziger Jahre nicht die nächste Transformation der Company einleiten,
- die sich mental auf den Service‑Gedanken hätte zurückbesinnen und
- technologisch voll auf die vernetzte Welt konzentrieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerstner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prinzip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müssen. Nicht, daß ihre Ex‑Partner Intel und Microsoft in der Börsenkapitalisierung an Big Blue vorbeigeschossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Geschichte nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dachte in Produkten und Produktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst niemals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den siebziger Jahren zu einem zutiefst selbstbezüglichen System entwickelte und dabei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM wollte sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließlich die Autorität entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die beiden Watsons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Lochkarte, der Junior war Elektronik. Die nächste Phase wäre Telekommunikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie verlangt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frühen fünfziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Deswegen gelang ihm die Einführung dieser Computer der dritten Generation. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma beinahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Technologie zu kreieren, hatte IBM wie niemals wieder in ihrer Geschichte alles riskiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher ereignet hatte. Die alte IBM hatte 1956 im Rahmen eines Antitrust‑Verfahrens versprochen, alle Patente, die sie hielt und ihr bis 1961 noch zugesprochen werden würden, gegen eine geringe Gebühr an die Wettbewerber abzugeben.
Das war ein gefährliches Spiel, wie Watson Jun. aus der Geschichte der Firma sehr genau wusste.
POP‑Art. Sein Vater hatte 1949 der British Tabulating Machines Co. (BTC) die Exklusivrechte für die Herstellung und Vermarktung von IBM‑Produkten sowie die Nutzung von Patenten erteilt ‑ mit dem Ergebnis, dass Big Blue selbst in den Ländern des britischen Commonwealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neuseeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst konkurrieren. Die Umsätze waren entsprechend mager. Schlimmer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapitals in britische Hände überging, hatte IBM überhaupt auf der Insel eine eigene Gesellschaft gründen dürfen. Für 28 Millionen Dollar hatte dann 1959 Sohn Watson die Anteile zurück erwerben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japaner hatten der Gesellschaft Ende der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rückstand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Transfer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Versprechen aus der Affäre ziehen können, daß IBM ihre Gewinne in den jeweiligen Märkten in den Aufbau von lokalen Fertigungsstätten hineinstecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM diesem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
[2] Computerworld, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gütersloh 1970: »Erdteil zweiter Klasse? ‑ Europas technologische Lücke«
[4] Electronics, 14.4.80, »Special Commemorative Issue«
[5] Frankfurter Allgemeine Zeitung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Connolly/Jeffrey Beeler: »The price of success: IBM /370 system won`t die«
[7] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
Um die Größe und Grandiosität dieser Ankündigung zu verstehen, muß man die Hintergründe durchleuchten, die zu diesem spektakulären Ereignis führten. Warum zum Beispiel hatten sich damals, im Januar 1961, bei der Sitzung des Topmanagements, die Technologen durchsetzen können? Wieso hatte das Topmanagement seine Zustimmung zu einem Projekt erteilt, bei dem die Firma ihre gesamte Existenz aufs Spiel setzte? Antwort: IBM befand sich in einem technologischen Rückstand. Ihre Produktlinien waren zur Jahreswende 1961/62 ausgereizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachstumsraten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachstum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Lichtblick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das genug für eine Firma, die zuvor alle vier Jahre ihre Umsätze verdoppelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorgsam gehüteten Marktanteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Corporation of America oder Honeywell traten auf, während sich die alten Kontrahenten durch Aufkäufe vergrößerten. Mehr noch: die Konkurrenz begann, das Geschäft mit kompatiblen Rechnern zu entdecken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Vergangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Calculator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnettrommel als Hauptspeicher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avantgarde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Monatsmiete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerechnet, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnettrommeln zu vermieten. Ein Vermögen würde indes die Gesellschaft erwirtschaften, wenn sie gar 250 Maschinen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurückgezogen wurde, waren mehrere Tausend dieser Rechner verkauft worden. So wurde diese primitive Maschine der erste massenproduzierte Rechner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Transistorrechner Univac 80 genau gegen diesen Magnettrommelrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel abzeichnete, die Wettbewerber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus diesem Dilemma befreien ‑ und sich diesmal an die Spitze der Revolution stellen. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu lassen, bestand darin, viel Geld anzufassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von Innovationen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vice President T. Vincent (Vin) Learson seinen Chef nachdrücklich aufmerksam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilemma befreien. Watson spürte selbst »den Druck des Marktes«. Er ahnte, dass er alles auf eine Karte setzen musste. Die Lage war brenzlig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Superlativen gefeiert wurde. »Es war die größte industrielle Investition, die jemals in der Industriegeschichte von einem Privatunternehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Serie fünf Milliarden Dollar auf. Das entsprach 1966 den gesamten Einnahmen aller Computerhersteller der Welt«, staunte 1970 der Spiegel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lücke«.[3] In der Tat ‑ rund 4,5 Milliarden Dollar Kapitalinvestitionen für Fabriken, Ausrüstung und Mietmaschinen hatte IBM im Umfeld der /360‑Ankündigung aufgebracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Entwicklung. Zum Vergleich: Für ENIAC, für den ersten praxiserprobten Röhrenrechner der USA, waren bis zu seiner Inbetriebnahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar geflossen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Entwicklung des Jumbos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Milliarde Dollar investieren. Der französische Starpublizist Jean‑Jacques Servan‑Schreiber staunte 1967 in seinem Bestseller »Die amerikanische Herausforderung« über IBMs Aufwand, den er in jenen Kategorien sah, in die eigentlich nur noch der moderne Staat dachte: »Das entspricht der jährlichen Gesamtinvestition der Vereinigten Staaten, die Regierungsgelder einbegriffen, für Raumforschung.« Zum Vergleich: Das Manhattan‑Project, das nach dem japanischen Angriff auf Pearl Harbor am 7. Dezember 1941 der damalige US‑Präsident Franklin Roosevelt als geheime Operation gestartet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Milliarden Dollar gekostet und die USA zur ersten Nuklearmacht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhattan‑Project mitgewirkt, das in Los Alamos sein Zentrum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor beschäftigt«, erinnerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unterfangen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Erde präsent war, konnte auf eine Ingenieurs‑Elite zurückgreifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfügung stand. Ihre Techno‑Offensive erreichte mit der Vorbereitung und Vermarktung der /360 einen solchen Druck, daß ihr Mitbewerber vorwarfen, Ingenieurs‑Intelligenz zu monopolisieren. Servan‑Schreiber behauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Goldpreisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Konkurrenz buhlte weltweit um diese Intelligenz‑Ressource, die unglaublich viel zum Wohlstand und zur technologischen Überlegenheit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Höhepunkt.
Hatte der Krieg beim Manhattan Project Physiker und Mathematiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA vertrieben, so war es jetzt die Macht der Dollars, die das human capital nach Nordamerika lockte. Das Wirtschaftsmagazin Business Week stellte im September 1967 fest, dass allein zwischen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Ausland in die USA gekommen waren, ein starkes Drittel davon aus Europa. Kurzum: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vorzeige‑Unternehmen dieser Ära werden.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment misslingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamble«, wie Fortune im September 1966 titelte. Es war die »riskanteste Geschäftsentscheidung«, die bis dahin ein Unternehmen gefällt hatte. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwischen 1961 und 1967 von 150 Millionen Dollar auf satte 1,16 Milliarden Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Abenteuer gestartet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Seine Begründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Größenordnung der IBM jährlich um zehn bis 20 Prozent wächst, während die Volkswirtschaften der großen Industrienationen sich mit einer Rate von zwei Prozent begnügen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz umgerechnet zehn Prozent des Bruttosozialproduktes des Vereinigten Königreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spitzenbeamten Simon Nora und Alain Minc auf, in ihrer Bestseller‑Studie »Die Informatisierung der Gesellschaft« die Europäer zum Gegenangriff aufzurufen. »Die Politik muss vor allem die neuartige Herausforderung durch IBM berücksichtigen: Gestern noch Rechnerhersteller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Unternehmen eine Strategie, die es in die Lage versetzt, ein Nachrichtennetz zu errichten und zu kontrollieren. Es greift damit in eine Sphäre ein, die traditionell eine Staatsdomäne ist.«
Deshalb rieten die beiden Autoren dazu, eine internationale »Allianz der Fernmeldegesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Politik war Big Blue so stark, dass sie die Souveränität und Legitimation der Nationalstaaten gefährdet sahen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unternehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war niemand bereit, noch einmal wegen einer technologischen Herausforderung die gesamte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell entwickelt, das weitgehend dem entsprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vision. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbildeten, die im Kleinen durchaus denen der Computer ähnelten. Die Schaltbilder der Chips und die der Telekomnetze, mit deren Elektronisierung justament begonnen wurde, unterschieden sich optisch lediglich in den Dimensionen. Man brauchte nur eine schnelle Verbindung zwischen den Rechnern, um sie genau so einzuweben wie das Telefon ins Fernmeldenetz. Die Telekomgesellschaften verhinderten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Network‑Computings. IBM mußte deshalb in das Telekommunikationsgeschäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durchbruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem weltweiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmeldegesellschaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Telekoms gehörten außerdem zu ihren größten Kunden. Einen derartigen Angriff durch die mächtigste Computerfirma der Welt auf ihre wichtigsten Geldquellen hätten die Regierungen nie zugelassen. So musste sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das Internet. Es legte eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chaotisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staatlichen Widersachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits exemplifiziert hatte. Und hätte Big Blue in ihre eigene Geschichte hineingeschaut, dann hätte sie gesehen, dass bei aller kollektiven Genialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann gewinnt der Erfolg den Erfolg aus sich selbst. Er managt sich von allein.
Auf jeden Fall hatten Big Blues Technostrategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde abgewürgt. Das Management des Multis zog nicht mit. Es hatte sich dem Codex des späten 20. Jahrhunderts verpflichtet: es wollte überall als good citizen gelten, als braver, biederer und angepasster Bürger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräfte erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Cary dachte nur noch in business cases, in kleinen überschaubaren Projekten, die einen schnellen Return on Investment brachten. Das war die neue political correctness, der alle IBMer treublau folgten. An milliardenschweren, langwierigen und riskanten Projekten war Cary nicht interessiert. Er war kein Watson, der akzeptieren konnte, dass Technologen mitunter intelligenter sind als Manager. Watson wusste, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder einfach in Labors verkümmern lassen. Die IBM der kleinen Schritte war geboren.
Der brain drain, der zuvor in Richtung Big Blue gezogen war, wechselte zu den Wettbewerbern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mächtig hatte werden lassen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. haben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ihre ganze unternehmerische Stärke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeitraum von 1946 bis 1956 gewesen. In dieser Zeit waren beide nach außen hin eher unauffällig gewesen. Sie hatten sich internen Herausforderungen gestellt wie der Konzentration auf das Tabelliermaschinengeschäft (Watson Sen.) in den zwanziger Jahren oder der Umstellung auf die Elektronik (Watson Jun.) in den fünfziger Jahren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transformation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM ebenfalls an den Aufbau einer solchen neuen Autorität denken müssen. Und in der Tat wurde sie Mitte der achtziger Jahre in der Person von John Akers sichtbar. 1985 wurde er Chief Executive, ein Jahr später ihr Chairman. Aber er war ein vaterloser Watson, eine Kopfgeburt. Kein Unternehmer vom Schlage des extravaganten Charles Flint oder des patriarchalischen Watson Senior stand während der Aufbauzeit hinter ihm. So konnte Akers Mitte der siebziger Jahre nicht die nächste Transformation der Company einleiten,
- die sich mental auf den Service‑Gedanken hätte zurückbesinnen und
- technologisch voll auf die vernetzte Welt konzentrieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerstner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prinzip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müssen. Nicht, daß ihre Ex‑Partner Intel und Microsoft in der Börsenkapitalisierung an Big Blue vorbeigeschossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Geschichte nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dachte in Produkten und Produktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst niemals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den siebziger Jahren zu einem zutiefst selbstbezüglichen System entwickelte und dabei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM wollte sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließlich die Autorität entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die beiden Watsons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Lochkarte, der Junior war Elektronik. Die nächste Phase wäre Telekommunikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie verlangt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frühen fünfziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Deswegen gelang ihm die Einführung dieser Computer der dritten Generation. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma beinahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Technologie zu kreieren, hatte IBM wie niemals wieder in ihrer Geschichte alles riskiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher ereignet hatte. Die alte IBM hatte 1956 im Rahmen eines Antitrust‑Verfahrens versprochen, alle Patente, die sie hielt und ihr bis 1961 noch zugesprochen werden würden, gegen eine geringe Gebühr an die Wettbewerber abzugeben.
Das war ein gefährliches Spiel, wie Watson Jun. aus der Geschichte der Firma sehr genau wusste.
POP‑Art. Sein Vater hatte 1949 der British Tabulating Machines Co. (BTC) die Exklusivrechte für die Herstellung und Vermarktung von IBM‑Produkten sowie die Nutzung von Patenten erteilt ‑ mit dem Ergebnis, dass Big Blue selbst in den Ländern des britischen Commonwealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neuseeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst konkurrieren. Die Umsätze waren entsprechend mager. Schlimmer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapitals in britische Hände überging, hatte IBM überhaupt auf der Insel eine eigene Gesellschaft gründen dürfen. Für 28 Millionen Dollar hatte dann 1959 Sohn Watson die Anteile zurück erwerben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japaner hatten der Gesellschaft Ende der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rückstand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Transfer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Versprechen aus der Affäre ziehen können, daß IBM ihre Gewinne in den jeweiligen Märkten in den Aufbau von lokalen Fertigungsstätten hineinstecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM diesem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
[2] Computerworld, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gütersloh 1970: »Erdteil zweiter Klasse? ‑ Europas technologische Lücke«
[4] Electronics, 14.4.80, »Special Commemorative Issue«
[5] Frankfurter Allgemeine Zeitung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Connolly/Jeffrey Beeler: »The price of success: IBM /370 system won`t die«
[7] Fortune, 11/60, Robert Sheehan: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«
Abonnieren
Posts (Atom)