Montag, 23. November 2009

Software auf Z - das aktuelle Angebot

Pressemitteilung
Neue IBM Software für System-z-Großrechner verbessert das
Anwendungsmanagement
Neue Möglichkeiten zur IT-Kostensenkung im Transaction Management, bei der
Anwendungswartung und im Systems Management

Armonk/Ehningen, 19.11.2009: IBM (NYSE: IBM) hat heute zehn neue
Software-Produkte angekündigt, die Unternehmen dabei unterstützen, die
Kosten für das Management von Anwendungen zu senken. Die Software
optimiert den System-z-Großrechner für zusätzliche Workloads, wie zum
Beispiel Datenanalyse, kollaborative Anwendungsentwicklung,
Anwendungswartung und weitere zentrale Geschäftsprozesse.

Die System-z-Plattform ist vor allem wegen ihrer
Konsolidierungsmöglichkeiten und der hohen Kosteneffizienz beliebt. IBM
und zahlreiche Software-Anbieter haben deswegen die Bandbreite an neuen
Workloads für den Mainframe durch etwa 3.800 z/OS-basierte und etwa 3.000
Linux-basierte Anwendungen stark vorangetrieben. Die Fähigkeit des
Mainframes, viele Anwendungs-Services auf einem einzigen System
bereitzustellen, verhilft dem Großrechner zu sehr geringen
Anwendungskosten pro Nutzer. Niedrige Anwendungskosten sind ein
entscheidender Erfolgsfaktor für Unternehmen, die vielfältige Anwendungen
für ihren Geschäftsbetrieb einsetzen.

Die neuen Produkte erstrecken sich über das gesamte IBM Software-Portfolio
und bieten System-z-Kunden eine Reihe von Vorteilen wie zum Beispiel
verbesserte Konnektivität, Produktivität und Sicherheit für Anwendungen
sowie verbessertes Datenmanangement.

Die neuen Angebote ergänzen die kürzlich angekündigte IBM System z
Solution Editions. Diese sieben integrierten Pakete mit Hardware, Software
und Services unterstützen Unternehmen dabei, neue Workloads wie Data
Warehousing, elektronische Zahlungssysteme und Disaster Recovery leichter
auf der Großrechnerplattform einzusetzen.

Folgende Produkte unterstützen Kunden dabei, System z als
High-Performance-Plattform für kritische Geschäftsprozesse mit hoher
Transaktionsmenge wirkungsvoll einzusetzen:

IMS 11 bietet direkten SQL-Zugang zu IMS-Daten von jeder verteilten
Plattform. Dies vereinfacht und beschleunigt die Verbindung von Daten und
Anwendungen. Gleichzeitig erleichtert es die Datenreplizierung und
Veränderungen in der Datenerfassung. Durch einen verbesserten Java-Support
können jetzt noch mehr Softwareentwickler IMS-Anwendungen und
Business-Services unterstützen.

Zu den neuen WebSphere-Produkten, die die Verwaltung von
Geschäftsprozessen, die Interkonnektivität und die Integration verbessern,
gehören die IBM Problem Determination Tools v10, der WebSphere Process
Server für z/OS V7 und IBM WebSphere ILOG Business Rule Management Systems
. Sie wurden speziell dafür entwickelt, Kunden dabei zu unterstützen, ihre
Produktivität, ihre Sicherheit und ihr Datenmanagement zu verbessern.
Gleichzeitig können die Produkte Kunden dabei unterstützen, ihre
Wettbewerbsfähigkeit zu erhöhen, indem sie ihre Geschäftsprozesse mit
Kunden, Zulieferern, Mitarbeitern und Geschäftspartnern flexibler
integrieren. Weitere Informationen sowie eine komplette Liste der neuen
WebSphere-Produkte unter www.ibm.com/smartwork/businessagility.

Folgende Produkte helfen Kunden dabei, die Kosten für Anwendungswartung zu
senken:

IBM Rational Developer für System z version 7.6 bietet eine moderne
GUI-Entwicklungsumgebung, um die Produktivität der Entwickler zu steigern
und die Kosten für die Wartung und die Erstellung von Anwendungen für
mehrere Plattformen zu senken. Das neue Angebot macht die Plattform für
junge Fachkräfte attraktiv und konsolidiert die Entwicklung von
unterschiedlichen Sprachen auf eine einzige Umgebung. Gleichzeitig kann es
die Prozessorlast um bis zu 50 Prozent senken und so deutliche
Budgeteinsparungen ermöglichen.

IBM Rational Team Concert for System z version 2.0 setzt ein neues
gemeinsames Ablagesystem ein, um Teams dabei zu unterstützen, leichter
zusammen zu arbeiten, Ressourcen gemeinsam zu nutzen, Prozesse zu
automatisieren und Software schneller zu liefern. Die Software verkürzt
Antwortzeiten und spart Kosten ein, indem sie verteilte Infrastrukturen
von Entwicklungsteams konsolidiert und die Softwareentwicklung über
verschiedene Plattformen hinweg automatisiert, was besonders für
Anwendungen mit verschiedenen Klassen wichtig ist.

Ein verbessertes Set von IBM Rational Compilern für C/C++, COBOL und PL/I
reduziert die Leistungsanforderungen von Anwendungen. Gleichzeitig
steigert es die Produktivität der Entwickler und senkt sowohl die
Kapitalkosten als auch die gesamten Entwicklungskosten.

Folgende Produkte unterstützen Kunden dabei, eine bessere Übersicht über
Unternehmensressourcen zu gewinnen und die Kosten für die
Netzwerkverwaltung zu senken:

Tivoli Asset Discovery for z/OS entfernt ungenutzte und veraltete Software
und trägt dazu bei, die Softwarenutzung systematisch zu erfassen, um
effizienter für die Zukunft planen zu können.

IBM Tivoli NetView für z/OS 5.4 verbessert die Netzwerk- und
Automatisierungskontrolle für Rechenzentren und Change-Management. Die
Software bietet verbessertes Service-Delivery-Management und system-weites
Ereignismanagement. Sie vermittelt ein Verständnis dafür, wie
Netzwerkverfügbarkeit und Events das Geschäft beeinflussen und hilft
Kunden, intelligentere und automatisiertere Systeme bereitzustellen.

IBM Tivoli zSecure bietet eine Sicherheitslösung für den Mainframe für
automatisierte Analyse, das Reporting von Ereignissen und
Compliance-Dashboards. Die Lösung ermöglicht es Unternehmen,
Revisionskosten zu senken und intelligentere kosteneffizientere Systeme zu
betreiben.

Weitere Informationen unter www.ibm.com/mainframe (System z), unter
www.ibm.com/software/os/systemz (System-z-Software

Donnerstag, 22. Oktober 2009

IBMs Dynamic Infrastructure

IBM kündigt neue Software für das Rechenzentrumsmanagement an
System Pooling: IBM Systems DirectorVM Control verwaltet unterschiedliche physische und virtualisierte Plattformen von x86 bis zum Mainframe, Speicher und Netzwerk von einem zentralen Punkt aus / neue Anwender im Rahmen des IBM Dynamic Infrastructure-Konzepts

Armonk/Ehningen, 21.10.2009: IBM (NYSE: IBM) hat heute neue Software für das Management von Rechenzentren angekündigt, die es ermöglicht, die Betriebskosten deutlich zu reduzieren und gleichzeitig den Zeitaufwand für die Implementierung neuer Anwendungen von Wochen auf Minuten zu senken.

Die neue IBM Systems Director VMControl Enterprise Edition hat strategische Bedeutung und unterscheidet sich grundlegend von anderen Systems-Management-Angeboten, weil sie es Unternehmen jetzt erstmals ermöglicht, von einem einzigen Punkt aus unterschiedliche IT-Systeme und Virtualisierungstechnologien zu kontrollieren. Die Software kann UNIX/Linux, den Mainframe, x86- und Speicher-Systeme sowie Netzwerke einbinden.

VMControl erlaubt es, Kombinationen aus physischen und virtuellen Servern als Einheit zu verwalten. Dieser Ansatz – System Pooling genannt – erweitert die Vorteile von Virtualisierung: Unternehmensrechenzentren werden dabei unterstützt, ihre komplexen Verwaltungsfunktionen zu vereinfachen und die Nutzung kritischer Ressourcen wie CPU, Arbeitsspeicher und Storage besser zu verteilen und zu priorisieren.

VMControl unterstützt Unternehmen, die sich für Virtualisierung – die Erstellung mehrerer virtueller Server oder Speichersysteme auf einem einzigen physischen System - entschieden haben, um die Infrastrukturkosten zu senken. Dabei müssen sie sich jedoch neuen Hürden stellen, wenn sie versuchen, verschiedene Unternehmensteile oder Geschäftsprozesse zu verwalten, die auf unterschiedlichen Plattformen mit einer jeweils eigenen Virtualisierungstechnologie betrieben werden.

Die zentralisierte Kontrolle heterogener Umgebungen bringt neue Intelligenz in die Rechenzentrumsoperationen. Unternehmen können ihre immensen Informationspools und Rechenressourcen verwalten und sie den Anwendungen zuweisen, die sie gerade benötigen. Das verbessert nicht nur die generelle Auslastung der IT-Infrastruktur, um Anschaffungs-, Betriebs- und Energiekosten zu senken. Es steigert auch die Verfügbarkeit von Anwendungen und bietet den IT-Verantwortlichen die nötige Flexibilität, um die neuen Anforderungen durch die Flut an Daten, die aus der Vernetzung von Endgeräten entsteht, in den Griff zu bekommen.

VMControl kann außerdem die Implementierung neuer Bereitstellungsmodelle für IT, wie zum Beispiel Cloud Computing, beschleunigen, durch die Informations- und Rechenressourcen von außen bezogen werden können.

Zusammen mit der IBM Tivoli Software hilft das neue Produkt Unternehmen dabei, Services zu verbessern und Kosten und Risiken zu reduzieren. IBM hat heute eine neue Version des Tivoli Provisioning Manager angekündigt, die eine verbesserte Automatisierung der manuellen Aufgaben beim Provisioning und bei der Konfigurierung von Servern, Betriebssystemen, Middelware, Software-Anwendungen, Speicher- und Netzwerkgeräten bietet.

Unabhängig davon, ob Unternehmen IT-Leistungen aus einer Cloud beziehen oder IT-Leistungen innerhalb ihres Rechenzentrums als Cloud-Services liefern wollen, machen das Ausmaß und die Geschwindigkeit des Datenwachstums sowie der permanente Druck, mit weniger Ressourcen mehr zu erreichen, VMControl zu einem wirkungsvollen Instrument für Rechenzentren.

Vorteile von VMControl:

Kürzere Antwortzeiten für Geschäftsanforderungen: Weil VMControl die Anforderungen an die technischen Fähigkeiten reduziert und die Anzahl der Werkzeuge und Aufgaben verringert, die benötigt werden, um neue Workloads zu implementieren, können Unternehmen schnelle Self-Service-Implementierungen anbieten, die innerhalb von Minuten statt Wochen zu bewältigen sind, und gleichzeitig die Kontrolle über ihre IT-Ressourcen behalten. VMControl bietet Unternehmen die Möglichkeit, sich an sich verändernde Geschäftsanforderungen anzupassen und neue und unterschiedliche Arten von Workloads unter Einhaltung der Service-Level-Vereinbarungen zu unterstützen.

Eine effizientere Nutzung der Ressourcen: Unternehmen würden ohne VMControl für die Konfigurierung, den Betrieb und die Überwachung physischer und virtueller Ressourcen über mehrere Plattformen hinweg mehr als 72 unterschiedliche Verwaltungsmethoden benötigen. Der Einkauf, die Erstellung und die Wartung verteilter Verwaltungstools binden erhebliche Teile des IT-Budgets. VMControl kann die Zahl der Verwaltungstools auf eines senken und die Betriebskosten dadurch halbieren.

Sichtbarkeit, Konsistenz und Planbarkeit von Operationen: VMControl bietet weitergehende Möglichkeiten für Monitoring, Wartung und Gewährleistung von Service-Levels, die für verschiedene Workloads im Pool der IT-Ressourcen benötigt werden, als herkömmliche Angebote. Es kann also dabei helfen, Systemprobleme vorauszusagen und auf sie zu reagieren. Indem Workloads von betroffenen Systemen wegbewegt werden, kann VMControl sicherstellen, dass Workloads die Verfügbarkeit von Anwendungen beibehalten, und ungeplante Ausfallzeiten reduzieren sowie geplante Ausfallzeiten des Betriebs verhindern.

Smartere Systeme: Die Fähigkeit von VMControl, Workloads dynamisch zu verschieben, und dynamische Anpassungen vorzunehmen, ermöglicht eine effizientere Auslastung von IBM Systemen, senkt ihren Energieverbrauch für Rechenleistung und Kühlung und bietet eine flexiblere und belastbarere Infrastruktur.

Systems Director VMControl unterstützt PowerVM und z/VM von IBM sowie x86-Virtualisierungstechnologien wie VMWare, Hyper-V und x86-Virtualisierungstechnologien, die auf offenen Standards basieren. Es wird im Dezember für IBM Power Systems mit AIX verfügbar sein. Die Unterstützung von x86- und Unix-Systemen von IBM und Wettbewerbern ist für 2010 geplant.

Aktuelle Anwenderbeispiele für IBM Dynamic Infrastructure-Lösungen:
Seit der Einführung des IBM Dynamic Infrastructure-Blueprints haben bereits viele Unternehmen den Weg hin zu einer dynamischeren IT-Infrastruktur beschritten. Einige aktuelle Beispiele:
Die Rotkäppchen-Mumm Sektkellereien können auf umsatz- und wachstumsstarke Jahre zurückblicken – auch in Zukunft soll es für das Unternehmen im Sekt- und Spirituosenmarkt weiter prickeln. Dabei unterstützt Rotkäppchen eine dynamische IT-Infrastruktur von IBM, die sich an neue Anforderungen flexibel, zuverlässig und ohne personellen Mehraufwand anpassen lässt.
Im Hinblick auf das starke Wachstum und die Akquisitionsstrategie von Rotkäppchen – sich gemeinsam mit starken Marken und Unternehmen weiter zu entwickeln – benötigte das Unternehmen eine flexible und dynamische IT-Infrastruktur, die in Zukunft mit dem Unternehmen mitwachsen sollte. Außerdem entsprachen Hard- und Software nicht mehr den gestiegenen Anforderungen an Funktionalität, Leistungsfähigkeit und Verfügbarkeit. Themenfelder, mit denen die IT in diesem Zusammenhang konfrontiert wurde, waren eine strategische Neuausrichtung im ERP-Umfeld, eine innerhalb kurzer Zeit nahezu doppelt so hohe Nutzerzahl sowie erhöhte Anforderungen an die Verfügbarkeit der Systeme durch die Ausweitung der Produktion auf 3-Schicht-Betrieb.
Gemeinsam mit dem IBM SAP Competence Center in Walldorf hat das Unternehmen die Hard- und Softwareumgebung intensiv diskutiert und entschied, die SAP-Implementierung auf der bewährten Hardwareplattform Power Systems Server mit IBM i vorzunehmen.
Das Potsdam-Institut für Klimafolgenforschung (PIK) erweitert mit einem neuen IBM Hochleistungscomputer seine Rechenkapazität um das 30fache. Der neue Computer kann hochkomplexe Simulationen mit neuesten wissenschaftlichen Modellen berechnen – und das mithilfe der eingesetzten „IBM iDataPlex-Technologie“ besonders energiesparend. Die Klimaforscher wollen mit dem neuen Rechner genauere Aussagen etwa über das bislang nicht berechenbare Auftreten von Extremwettern wie Starkregen oder Dürreperioden treffen. Der jetzt in Betrieb genommene Hochleistungscomputer hat eine theoretische Rechenleistung von 30 Teraflops (30 Billionen Rechenoperationen pro Sekunde). Das entspricht mehr als dem 1000fachen der Rechenleistung eines heute handelsüblichen PCs mit einem Drei-Gigahertz-Dualcore-Prozessor.
Die ThyssenKrupp Presta AG aus Eschen in Liechtenstein setzt auf die EAM-Lösung (Enterprise Asset Management) Maximo von IBM zur effizienten Instandhaltung und Wartung des weltweiten Maschinenparks. Seit einigen Jahren setzt das Unternehmen die EAM-Lösung Maximo von IBM ein, die auf einer einzelnen Softwareplattform basiert. Die EAM-Lösung bietet eine umfassende Sicht auf alle Assets in einem Unternehmen, die die Bereiche Produktion, Anlagen, Transport und IT (ITIL) betrifft.

Weitere Informationen

Montag, 17. August 2009

Z auf Zack: Die neue Anwendungsmaschine

DIE OFFIZIELLE PRESSEMITTEILUNG
IBM stellt neue Großrechner-Lösungen vor, mit denen Kunden neue Anwendungen leichter auf der Mainframe-Plattform betreiben können

Neue System z "Solution Edition" und das Linux-Programm erleichtern es Kunden, die legendäre Leistungsfähigkeit und Robustheit des IBM Großrechners für sich zu nutzen

Armonk/Stuttgart, 17.08.2009: IBM (NYSE) hat die System z "Solution Edition"-Serie angekündigt – sieben integrierte Pakete mit Hardware, Software und Services, die Kunden dabei unterstützen können, Anwendungen wie Data Warehousing, elektronische Zahlungssysteme und Disaster Recovery leichter auf der Großrechnerplattform einzusetzen.

IBM kündigte auch zusätzliche neue Initiativen an, um weiteren Unternehmen dabei zu helfen, durch die Migration von Sun- und HP-Servern auf die Linux-Plattform auf IBM System z ihre Kosten weiter senken zu können und dabei Betriebsabläufe zu vereinfachen. Diese neuen Programme spiegeln die fortlaufende IBM Strategie wider, System z attraktiv für neue Anwendungsgebiete zu machen. Damit können Anwender die Leistungsstärke und Verlässlichkeit des Großrechners sowie seine immensen Ressourcen für Transaktionsverarbeitung und das effiziente Management für eine größere Bandbreite an Geschäftsaktivitäten nutzen.

Die Solution Edition wurde speziell dafür entwickelt, die Kosten für den Einsatz neuer Anwendungsgebiete auf IBM System z-Großrechnern preislich konkurrenzfähig zu machen gegenüber verteilten Systemen, die unter Umständen nicht so verlässlich, skalierbar oder sicher wie eine Mainframe-Plattform sind.

Das Solution-Edition-Angebot erweitert ein erfolgreiches Programm für SAP-Geschäftsanwendungen auf dem IBM Mainframe. IBM konnte einen deutlichen Zuwachs von SAP-Anwendungen auf System z seit der Ankündigung des Programms vor 18 Monaten verzeichnen.

Die Solution-Edition-Angebote sind attraktive Komplett-Lösungen. Sie beinhalten IBM System-z-Hardware, IBM Middleware-Produkte und Wartungsprogramme für neue Geschäftsfunktionen wie zum Beispiel:

Data Warehousing: Mit der System z Solution Edition für Data Warehousing können Kunden zügig neue Business-Intelligence-Anwendungen auf System z implementieren und gleichzeitig dazu beitragen, lange Verzögerungen, die bei der Beschaffung und Integration verteilter Server üblich sind, zu vermeiden. In näherer Zukunft können Kunden die Vorteile des Großrechners bei Data Warehousing voraussichtlich noch stärker nützen, sobald die neuen IBM Smart Analytic Optimizer-Funktionen bereit stehen werden.

Anwendungsentwicklung: Die System z Solution Edition für Anwendungsentwicklung kann dazu beitragen, die Implementierung neuer Workloads kostengünstig, einfach und mit überschaubarem Aufwand für Anwendungsentwickler zu gestalten. Gleichzeitig unterstützt sie eine Entwicklungsumgebung, die mit verteilten Plattformen konsistent ist.

Disaster Recovery: Die System z Solutions Edition für GDPS (Geographically Dispersed Parallel Dysplex) bietet eine Reihe stufenloser Konfigurationen für Verfügbarkeit und Disaster Recovery zu attraktiven Preisen.

Sicherheit: Die System z Solution Edition für Enterprise Security kann Kunden dabei unterstützen, Sicherheitsbedrohungen im Online-Bereich für Business Compliance, das zentrale Enterprise-Identity- und Access-Management, Verschlüsselungs- und Key-Management zu minimieren und bietet Analysemöglichkeiten für Betrugsversuche.

Elektronischer Zahlungsverkehr: Die System z Solution Edition für ACI bietet Kunden Vorteile, die Anwendungen von ACI Worldwide, einem internationalen Anbieter von Software für elektronische Zahlungssysteme, nutzen. Die Anwendungen von ACI für Strategic Retail und den Schutz vor Betrug im elektronischen Zahlungsverkehr sind für System z optimiert.

Die System z Solution Edition für WebSphere kombiniert die System z-Technologie mit dem IBM WebSphere Application Server als Grundlage, um Service-Oriented-Architecture (SOA)-Anwendungen und –Services aufzubauen, wiederzuverwenden, zu betreiben, zu integrieren und zu verwalten.

Die neue System z Solution Series verbessert zudem das bestehende SAP-Angebot, das für nahezu unterbrechungsfreie Verfügbarkeit und Datensicherung mit DB2 für z/OS-Datenbanken auf System z entwickelt wurde.

IBM kündigte zudem eine neue Preisstruktur für die "Integrated Facility for Linux" (IFL) und zugehörigen Speicher an, um Unternehmen dabei zu unterstützen, Workloads von ineffizienten Servern in einer Silo-Umgebung auf Linux auf der System-z-Plattform zu konsolidieren.

Die heutige Ankündigung spiegelt die kontinuierlichen Investitionen von IBM in Linux auf System z wider. Mehr als 3.000 der 5.000 auf der System-z-Plattform erhältlichen Anwendungen basieren auf Linux. Linux-basierte Anwendungen machen etwa die Hälfte der ungefähr 1.000 neuen oder verbesserten Anwendungen aus, die 2008 für den IBM Mainframe angekündigt wurden. Mehr als 40 Prozent der neuen System-z-Kunden installierten letztes Jahr Linux, in der ersten Jahreshälfte 2009 wuchs Linux noch einmal um 15 Prozent.

Die neue Solution Edition Series in Verbindung mit dem kürzlich angekündigten „zRewards“-Programm unterstützt mit attraktiven Lösungen und finanziellen Anreizen Kunden dabei, Vorteile aus Migrations-Services zu ziehen.

Der Marktanteil von IBM an Servern in der Preisklasse ab 250.000 $ stieg in der jetzigen Dekade laut IDC von 17 auf 32 Prozent. Im selben Zeitraum hielt HP den Marktanteil, während Sun Marktanteile verlor. (1)

Weitere Informationen über IBM Großrechner unter www.ibm.com/mainframe oder www.ibm.com/systems/de/z/ und in der original US-Presseinformation anbei.

(1) Quelle: Auf Basis rollierender 4-Quartals-Betrachtung, laut dem IDC High end +$250K Server Quarterly-Tracker von 3q 00 bis 1q 09. IDC WW Server Tracker Results 1Q’09.

Mittwoch, 17. Juni 2009

IBMs Cloud-Initiative: Der Pressetext

IBM macht Cloud-Computing bereit für den Unternehmenseinsatz
Neue Möglichkeiten zur Automatisierung und Vereinfachung der Informationstechnologie
Armonk/Stuttgart, 16. Juni 2009: IBM (NYSE: IBM) kündigt heute eine in dieser Art industrieweit erste Zusammenstellung kommerzieller Cloud-Services und integrierter Cloud-fähiger Produkte für den professionellen Unternehmenseinatz an. Sie ermöglichen Kunden, IT-Funktionen, die künftig im traditionellen Betrieb zu teuer oder kompliziert zu nutzen sind, zu standardisieren.Das neue IBM "Smart-Business"-Cloud-Portfolio baut auf fast zwei Jahren Forschung und Erfahrungen aus Projekten mit mehreren hundert Kunden auf. Es soll Anwender dabei unterstützen, komplexe Geschäftsprozesse in einfachere Services umzuwandeln. Hierzu stellt das "Smart Business"-Portfolio Automatisierungstechnologie und Selbstbedienungsmöglichkeiten für unterschiedliche digitale Aufgabenstellungen bereit, wie zum Beispiel Software-Entwicklung und -Testing, Desktop- und Device-Management oder Collaboration-Aufgaben.Von Energienetzen über die Verkehrsinfrastruktur bis hin zu Wasserkreisläufen und Finanzmarktsystemen: Die physische Infrastruktur unserer Welt wird mehr und mehr instrumentalisiert und IT-gestützt. Rechenzentren in Unternehmen werden eine neue Flut von Transaktionen und Daten bewältigen müssen, die durch die Vernetzung von einer Milliarde Menschen und einer Billion Endgeräte entstehen werden.
Die neuen Cloud-Lösungen sollen Kunden dabei unterstützen, völlig neue Aufgabenstellungen zu bewältigen und effizient mit den immensen Datenmengen, denen Rechenzentren gegenüberstehen, umgehen zu können. "Cloud-Computing ist ein wichtiges neues Modell für die Inanspruchnahme und die effiziente und kostengünstige Lieferung von IT- und Geschäftsdienstleistungen. Vor allem große Unternehmen nehmen unsere Unterstützung gern in Anspruch, weil sie die Vorteile dieses Cloud-Modells für ihr Geschäft in einer Weise nutzen wollen, die sicher, verlässlich und effizient ist", erläutert Erich Clementi, Vice President Enterprise Initiatives IBM.
"Die heutige Ankündigung zu Smart Business zeigt, dass wir diese Verantwortung sehr ernst nehmen und schnell auf die veränderten Bedingungen des Marktes und unserer Kunden reagieren. Wir investieren stark in Clouds und bieten Lösungen, mit denen Kunden die Technologie schon sehr früh nutzen können. Wir unterstützen Unternehmen heute genau so, wie wir sie schon beim Aufkommen von e-Business oder in der Anfangsphase von Open-Source-Lösungen und Linux unterstützt haben.?Das IBM Smart-Business-Portfolio umfasst drei Möglichkeiten, das Cloud-Modell schnell einzusetzen: - standardisierte IBM Smart Business-Services in der IBM Cloud- private Smart Business-Cloud-Services innerhalb der Firewall eingerichtet von IBM (betrieben von IBM oder vom Kunden)- Workload-optimierte ?CloudBurst?-Systeme, für Kunden, die ihre eigene Cloud-Umgebung mit vorintegrierter Hardware und Software einrichten möchten.Alle drei Angebote beeinhalten das IBM Service Management System ? eine Art Flugsicherungskontrollsystem für IT ?, das Selbstbedienung, Provisioning, Monitoring sowie die Verwaltung von Zugangsdaten und Sicherheitslösungen für die Cloud automatisiert. Dies spiegelt die Expertise der IBM und Investitionen von über 10 Milliarden US $ in den letzten fünf Jahren im Bereich Steuerungs- und Automatisierungstechnologien wider. In dem Maße, wie die digitale und die physische Infrastruktur konvergieren, gewinnen auch diese Technologien zunehmend an Bedeutung. Das Böblinger Forschungs- und Entwicklungszentrum trägt die weltweite Entwicklungsverantwortung für IBM CloudBurst, eine Produktfamilie von vorintegrierter Hardware, Speicher, Virtualisierungs- und Netzwerk-Technologien mit eingebautem Service Management System.Das Modell für die Inanspruchnahme und Lieferung von Cloud-Computing standardisiert IT- und Geschäftsservices nach der Art ihrer Aufgabenstellung und ihrer Funktion. Die ersten Angebote im IBM Smart-Business-Portfolio sind für zwei Bereiche optimiert: Entwicklung und Test sowie virtualisierte Desktops.IBM Smart Business: Softwareentwicklung und ?erprobungIn vielen Organisationen wird die Arbeit von Softwareentwicklern zum Zentrum der Innovation und entscheidend für viele Geschäftsprozesse. Sie entwickeln die Services und Lösungen, die Geschäftschancen generieren können und von denen das zukünftige Einkommen abhängt. Die Entwickler tragen heute so stark zum Geschäftserfolg bei, dass Unternehmen im Durchschnitt 30 bis 50 Prozent ihrer gesamten Technologie-Infrastruktur für die Entwicklung und Erprobung verwenden. Allerdings liegen typischerweise bis zu 90 Prozent davon brach.Zusätzlich zu hohen Kosten und niedriger Auslastung geht heute ein großer Teil der Zeit und Produktivität von Softwareentwicklern verloren, um an Genehmigungen und Zugänge für Systeme und Werkzeuge zu kommen, die sie für ihre Aufgabe brauchen. Wenn man es den Entwicklern sicher ermöglicht, Zugänge selbst zu verwalten, kann man dazu beitragen, die Personalkosten im IT-Bereich um bis zu 50 Prozent zu senken, die Bereitstellungszeit von Wochen auf Minuten zu verkürzen und die Qualität zu verbessern, da Softwarefehler um bis zu 30 Prozent verringert werden können. IBM wird Kunden drei Möglichkeiten anbieten, um Entwicklungs- und Erprobungsservices einzusetzen:IBM Smart Business Test Cloud: Private Cloud-Services innerhalb der Firewall des Kunden eingerichtet und/oder betrieben von IBMIBM Smart Business Development & Test in der IBM Cloud (Preview): Der IBM Software-Delivery-Service für die Cloud ermöglicht Organisationen, Ressourcen freizusetzen, um einen schnelleren Ertrag aus ihrem in Software investierten Kapital zu erreichen, indem sie sich für das sichere, skalierbare Cloud-Delivery-Modell für das Lifecycle-Management von Anwendungen entscheiden.IBM CloudBurst: Eine Familie vor-integrierter Hardware-, Speicher-, Virtualisierungs- und Netzwerklösungen mit einem eingebauten Service-Management-System.IBM Smart Business: Virtual DesktopsKunden von IBM haben Cloud Computing auch erfolgreich dafür eingesetzt, Desktops zu virtualisieren. Weil sie bis zu 73 Prozent weniger Strom verbrauchen als traditionelle Desktops und Laptops, bieten Server-gestützte virtualisierte Desktops eine verbesserte End-User-Experience und können einfacher verwaltet werden. Nach IBM internen Daten aus dem Einsatz bei Kunden, können diese Lösungen die Kosten für den IT-Support für den End-User gegenüber traditionellen Desktop-Umgebungen um bis zu 40 Prozent senken.IBM wird zwei Möglichkeiten anbieten, Kunden bei der Virtualisierung von Desktops zu unterstützen:IBM Smart Business Desktop Cloud: Cloud-Services, die über die Infrastruktur und das Rechenzentrum des Kunden zur Verfügung gestellt werden.IBM Smart Business Desktop in der IBM Cloud (Preview): IBM Smart Business Virtual Desktop wird über die sichere und skalierbare Public Cloud von IBM bereitgestellt.IT wird mit eingebautem Service-Management-System intelligenterService-Management ist das Betriebssystem des 21. Jahrhunderts. Es stimmt tausende von Prozessen und Services von digitalen und physischen Quellen weltweit ab. Was das Betriebssystem für die PC-Ära darstellte, wird Service-Management für die IT- und Geschäfts-Services in der Cloud bedeuten.Heute entstehen jeden Tag 15 Petabyte an neuen Informationen ? das sind mehr als acht mal so viele Informationen, wie in allen Bibliotheken in den USA zusammen lagern. Bis 2011 werden eine Billion Endgeräte mit dem Internet verbunden sein. Obwohl die Endverbraucher 70 Prozent dieses digitalen Universums generieren, werden Unternehmen für die Verwaltung von 85 Prozent davon verantwortlich sein. Hierzu gehören Sicherheit, Datenschutz, Ausfallsicherheit und Compliance. Service-Management wird all dies aufeinander abstimmen.Es ist kein Zufall, dass die IBM Investitionen ? in Akquisitionen und in Forschung und Entwicklung ? so stark auf den Fortschritt von smarten Überwachungs- und Automatisierungstechnologien konzentriert hat. Ungefähr die Hälfte dieser Investitionen ist auf Software ausgerichtet, die dafür eingesetzt wird, sogenannte traditionelle IT zu überwachen und zu automatisieren. Die andere Hälfte soll zur Visualisierung und Überwachung der Abermilliarden von vernetzten physischen Endgeräten, die mit Rechenzentren verbunden werden, wie zum Beispiel Mobilfunknetze, intelligente Stromzähler oder Eisenbahnwaggons, beitragen.
Weitere Informationen über Smarter Planet unter ibm.com/think.Weitere Informationen über das IBM Cloud-Computing-Portfolio, über Forschung und Labore unter ibm.com/cloud.

Mittwoch, 10. Juni 2009

USU-Produkte erhalten begehrte internationale ITIL-Zertifizierung....

... PinkVERIFYTM
Möglingen, 9. Juni 2009. Das renommierte ITIL-Beratungshaus Pink Elephant hat die integrierten Produkte Valuemation, USU KnowledgeCenter und ZIS-System in 12 ITIL v3-Prozessen zertifiziert. Damit gehört der Business Service Management-Anbieter USU aktuell zu den weltweit drei Herstellern, welche die hohen Funktions- und Integrations-Anforderungen an die> > Konformität von 12 und mehr ITIL v3-Prozessen erfüllen. Nach einem> > objektiven Prüfungsverfahren erhielt USU das ITIL v3-Gütesiegel für die Produktlinie Valuemation 3.6 in den Disziplinen Incident, Problem, Change, Request Fulfillment, Service Portfolio, Service Catalog, Service Asset & Configuration, Service Level und Financial Management. In der Kategorie Knowledge Management wurde zudem die USU KnowledgeCenter-Suite (Version 4.8) zertifiziert, im Bereich Event und Availability Management aus der> > USU-Gruppe das Produkt ZIS-System 5.3 der LeuTek. Speziell für die Themen Service Portfolio Management und Financial Management verfügt die USU über ein herausragendes, am Markt bislang einzigartiges Lösungsangebot.
Die Umsetzung von IT Service Management auf Basis der ITIL-Best-Practices ist zu einem kritischen Faktor für Unternehmen geworden, deren Erfolg zunehmend von der IT-Technologie abhängig ist. Deswegen richten inzwischen alle größeren Unternehmen ihre IT-Prozesse nach ITIL aus. PinkVERIFYTM> zeichnet als weltweit einziges unabhängiges Zertifizierungsprogramm Softwarelösungen aus, welche die ITIL-Kernprozesse der Version 3 nachhaltig unterstützen. Nach einer umfangreichen Validierung attestieren die Berater> > von Pink Elephant den USU-Produkten in 12 von 14 Disziplinen eine uneingeschränkte Kompatibilität mit den ITIL v3-Prozessen. Valuemation ist eine modular aufgebaute, integrierte Suite von Standardprodukten für Business Service Management (BSM). Die Suite verknüpft erfolgskritische Anwendungen, organisatorische Strukturen, Schnittstellen und Technologien mit den Geschäftsprozes­sen zur effizienten Nutzung von Unternehmensressourcen. Aktuelle Analysen internationaler Marktforschungsunternehmen wie z.B. Forrester, Gartner oder ECP bewerten die USU als einen der weltweit führenden Hersteller in den BSM-Schlüsselbereichen IT Asset Management, Configuration Management oder IT-Service Management.
Der Wertschöpfungsbeitrag der IT für das Geschäft wird durch ITIL v3 noch stärker betont. Die ITIL v3-Auszeichnung durch Pink Elephant ist für uns daher ein sehr wichtiger Meilenstein. Die umfassende Zertifizierung untermauert unsere strategische Ausrichtung als internationaler Softwareanbieter für Business Service Management", erklärt Bernhard Oberschmidt, Sprecher des Vorstandes der USU AG.

Montag, 8. Juni 2009

THAT`Z IT: Neue Softwareangebot

IBM Presseinformation
IBM unterstützt Kunden mit neuen Softwareangeboten für System z-Mainframes
Kostensenkungsmöglichkeiten und hohe Zuverlässigkeit des Großrechners geben weiteren Anreiz für ISV-Engagements und Kundeninvestitionen
Stuttgart, 8. Juni 2009: IBM hat neue Softwareangebote für System z angekündigt, die Unternehmen dabei unterstützen sollen, ihre IT-Kosten zu senken und gleichzeitig ihre Flexibilität weiter zu steigern und ihren Service zu verbessern. IBM plant darüber hinaus, im Verlauf des Jahres 2009 etwa dreißig weiterentwickelte Softwareangebote für Anwender vorzustellen, die System z-Mainframes als Plattform für die Entwicklung, die Installation und den Betrieb von Kerngeschäftsanwendungen und für die Verwaltung von Geschäftsdaten nutzen.
Die Ankündigung ist Teil der kontinuierlichen Bemühung der IBM, Kunden bei der Migration verteilter Anwendungen und Daten auf eine kostengünstigere, skalierbare und einfacher zu verwaltende, zentrale Plattform zu unterstützen. Die neue Software-Initiative erstreckt sich quer über die IBM Produktlinien für Anwendungsarchitektur, - entwicklung und -lieferung, Business Intelligence und Datenbank-Management, Transaktions-Management und IT-Service-Management.
Das wachsende Interesse von ISVs am IBM Mainframe spiegelt die Marktakzeptanz von System z als Plattform für neue Anwendungen wider. Im letzten Jahr haben sich mehr als 150 neue ISVs für die Plattform entschieden und mehr als 1.000 neue Anwendungen sind hinzugekommen.
Unter den ISVs, die kürzlich weitere Anwendungen auf System z vorgestellt haben, sind u.a. SAP, Chordiant, Temenos, i-flex, ACI und Norkom.
IBM hat heute die ersten 12 von insgesamt dreißig Softwareprodukten und Weiterentwicklungen für System z angekündigt. Bausteine für Anwendungsarchitektur, -entwicklung und -bereitstellung:
IBM Rational System Architect v11.3 und Rational Focal Point for Product and Portfolio Management v6.4 verbessern die Entscheidungsfindung und die Analyse von möglichen Auswirkungen, indem sie Blueprints von Strategie, Prozessen und IT-Infrastruktur sowie von deren Abhängigkeitsverhältnis einsetzen. Die neuen Lösungen können dabei helfen, Budget und Ressourcen durch die Verknüpfung von kritischen Geschäftsprozessen und IT effizienter einzusetzen. Sie bieten die Unternehmensplanungsstruktur und die Risikoanalyse, die für erfolgreiche Unternehmenskonsolidierung und Transformationsinitiativen nötig sind.
IBM Rational Developer for System z v7.6 unterstützt Kunden dabei, die Entwicklungsproduktivität zu steigern, Schulungskosten gering zu halten und den MIPS-Verbrauch von Mainframes zu senken. Die neue Version liefert Integrationsmöglichkeiten mit Rational Team Concert for System z v2.0, CICS v4.1, SCA, IBM Problem Determination Tools und SCM-Lösungen anderer Anbieter. Zusammen erlauben es diese Lösungen Kunden, die IBM Integrated Developer Environment zu nutzen, um die Entwicklung neuer Workloads über verschiedene Plattformen und Sprachen auf System z zu beschleunigen.
IBM Rational Developer for System z v2.0, der auf der IBM Jazz Technologieplatfform basiert, ermöglicht die gemeinschaftliche und flexible Entwicklung von Java-, C/C++, COBOL-, PL/I- und EGL-Anwendungen in dezentralisierten Mainframe-Entwicklungsteams. Die Preview-Version integriert mit dem IBM Rational Developer for System z verbesserte Unterstützung für den Aufbau von Cross-Platform-Anwendungen.
Kürzlich angekündigte und kommende IBM Software-Produkte für Business-Intelligence- und Datenbank-Technologie: InfoSphere Warehouse for System z ergänzt DB2 für z/OS um Core-Data-Warehousing und zusätzliches Analysepotenzial. Hierunter fallen verbesserte multidimensionale Berichte und Analysen. Zusätzlich bietet es universalen Zugang zu Clients wie Excel und Cognos.Cognos 8 BI for Linux on System z v8.4 bietet in einer einzigen Darstellung einen Überblick über nahezu alle Datenquellen.Die neue Version von DB2 for z/OS wird die Leistungsfähigkeit noch einmal steigern, den Aufwand für Verwaltung und Instandhaltung deutlich senken und damit die Arbeit von Anwendungsentwicklern und Datenbankadministratoren wesentlich effizienter gestalten.
Zu einem späteren Zeitpunkt in diesem Jahr wird IMS 11 verfügbar sein. Durch den gebotenen Open-Database-Support lässt sich damit die Interaktion mit anderen Anwendungen und Datenbanken einfacher, schneller und kostengünstiger implementieren.Kürzlich angekündigte IBM Software-Produkte für Transaktions-Management: CICS Transaction Server v4.1 liefert neue Features, um Organisationen dabei zu unterstützen, mit Anforderungen durch zunehmende behördliche Überprüfungen umgehen zu können, auf den demographischen Wandel zu reagieren und sich selbst so aufzustellen, dass sie neue Wachstumschancen ausnutzen können. Bestehende CICS-Programme und Ressourcen können nun Mashups, Web 2.0 und andere situationsbedingte Anwendungen nutzen. Der CICS Explorer vereinfacht auch die Entwicklung und die Verwaltung bewährter und moderner Anwendungen für die Integration mit Tools von IBM und anderen Anbietern.
WebSphere Business Events v6.2.1 for z/OS hilft Unternehmen dabei, die Auswirkungen von Geschäftsereignissen durch die Erforschung verfolgbarer Ereignismuster aufzuspüren, zu untersuchen und auf sie zu reagieren. Nutzer haben die Möglichkeit, Geschäftsereignisse zu spezifizieren und sie dann in einer CICS-Anwendung zu erfassen, ohne die Anwendung verändern zu müssen.
Produkte für das IT-Service-Management: Durch mehrere Releases ermöglicht Tivoli OMEGAMON ein integriertes Monitoring, das alle Unternehmensbereiche erfassen kann, um die höchstmögliche Leistungsfähigkeit der Anwendungen sicherzustellen. Die Lösung reduziert arbeitsintensive Analysen und senkt Reparaturzeiten, indem sie potenzielle Probleme aufzeigt, bevor eine aufwendige Recherche nötig wird.Tivoli Security Management for z/OS hilft Kunden dabei, die Sicherheitsverwaltung und das Nutzer-Management zu vereinfachen, Sicherheitskontrollen einzubauen und die Berichterstattung in Bezug auf Revisionen und Compliance zu automatisieren. Es verbessert das gesamte Sicherheitslevel, um Risiken zu senken und die Ausfallsicherheit zu erhöhen. Zudem senkt Tivoli Security Management die Kosten durch verbesserte Leistungsfähigkeit und betriebswirtschaftliche Effizienz, wenn Konsolidierungen im Bereich Security vorgenommen werden. Tivoli Key Lifecycle Management for z/OS bietet plattformunabhängige, besonders hohe Sicherheit für Unternehmensinformationen, auf die von tausenden von Anwendungen inner- und außerhalb des Unternehmens zugegriffen werden kann. Dabei setzt die Lösung auf automatisiertes Management, um die Instandhaltungskosten zu minimieren.
Tivoli Workload Scheduler v8.5 bietet nun eine neue intelligentere Ablaufplanung und erhöht den Datendurchlauf mit minimaler manueller Eingriffsnotwendigkeit durch verstärkte Automation.Kunden und ISVs vertrauen auf System z-Großrechner:Für Kunden im Bankenbereich bieten IBM und SAP eine Referenzarchitektur an, auf der SAP-Lösungen auf System z mit den WebSphere-, Tivoli- und Information-Management-Produkten betrieben werden können. Kunden können Leitfäden herunterladen, in denen basierend auf Erfahrungen bei der Implementierung umfangreicher SAP-Lösungen bei großen Banken weltweit, beschrieben wird, wie sie SAP auf System z optimieren können.
Unter den aktuellen Vertragsabschlüssen für IBM System z sind auch 40 Wettbewerbskunden. Zu den Kunden weltweit zählen zum Beispiel die HDFC Bank in Indien, Russian Railways, Travelport, Donovan Data Systems (UK), Handelsbanken (Schweden), Daishi Bank (Japan), Sun Life Financial (Canada) und das Health Insurance Institute in Slowenien. In USA setzt beispielsweise das Unternehmen Verizon Communications Inc. seine Information-Management-Software auf System z ein, um über 2,25 Milliarden Transaktionen im Monat auszuführen. Ergänzend zur Kundenakzeptanz von System z bieten mehr als 600 Ausbildungsinstitute weltweit zusammen mit IBM Kurse für die IBM System z Enterprise-Server an. IBM hat sie dabei unterstützt, Unternehmen, die Mainframes einsetzen, mit Dozenten, die die Technologie lehren, zu vernetzen. Studenten, die Kenntnisse im Bereich IBM Enterprise-Server erwerben, können beachtliche Karrierechancen erhalten. Seit 2004 haben mehr als 50.000 Studenten weltweit an der Mainframe-Ausbildung teilgenommen.

Dienstag, 26. Mai 2009

Supercomputer in Jülich eingeweiht: Europas schnellster Rechner

Jülich/Stuttgart, 26. Mai 2009: Das Forschungszentrum Jülich weiht heute offiziell in einem Festakt Europas schnellsten Supercomputer ein.Teilnehmen werden dabei die Bundesministerin für Bildung und Forschung,Prof. Dr. Annette Schavan, und der Ministerpräsident des LandesNordrhein-Westfalen, Dr. Jürgen Rüttgers. Das System mit dem Namen"Jugene", finanziert zu gleichen Teilen vom Bund und vom LandNordrhein-Westfalen, wird vom Forschungzentrum Jülich im Rahmen des „GaußCentre for Supercomputing“ (GCS) betrieben. Es leistet im Sinne dereuropäischen Forschungsförderung einen herausragenden Beitrag, umerstklassige Infrastrukturen für Spitzenforschung in Europa anzubieten.Der Supercomputer erreicht eine Spitzenrechenleistung von bis zu 1Petaflop/s (d.h. bis zu 1 Billiarde oder 10hoch15 Rechenoperationen proSekunde). Er ist damit so leistungsstark, daß er eine Million mal eineMilliarde Berechnungen pro Sekunde machen kann. Mit anderen Worten: EineMilliarde Menschen müssten jeweils pro Sekunde eine Million Berechnungenmit dem Taschenrechner durchführen, um annähernd gleich schnell zu sein. Inder Rangliste der weltweit schnellsten Supercomputer würde der Rechner nachjetzigem Stand voraussichtlich einen Platz unter den fünf schnellstenSystemen weltweit einnehmen. Die Veröffentlichung der nächstenTop500-Supercomputerliste wird für Juni 2009 erwartet."Das Forschungszentrum Jülich verbindet mit IBM eine herausragende,langjährige Zusammenarbeit im Bereich Supercomputing, die mit derEinweihung des Petaflop-Rechners einen neuen Höhepunkt erreicht", sagtMartin Jetter, Vorsitzender der Geschäftsführung, IBM Deutschland GmbH."Seit vielen Jahren kooperieren beide Partner beim Höchstleistungsrechnen.Diese Zusammenarbeit hat für den Wissenschafts- und WirtschaftsstandortDeutschland enorme Bedeutung.""Supercomputer sind eine universelle Schlüsseltechnologie und bieten unseinen völlig neuen Zugang zur Lösung der komplexesten wissenschaftlichenProbleme ", sagt Professor Achim Bachem, Vorstandsvorsitzender desForschungszentrums. "IBM und das Forschungszentrum Jülich arbeiten eng underfolgreich zusammen und bieten den europäischen Wissenschaftlern diebesten Werkzeuge für ihre Forschung."Der Rechner wird von internationalen und nationalen Forscherteams fürherausgehobene Problemstellungen und Simulationen in denWissenschaftsbereichen Physik, Chemie, Biologie, Astronomie,Materialwissenschaften und Umweltwissenschaften eingesetzt. So hilft derComputer beispielsweise dabei, die Schadstoffausbreitung in Boden undGrundwasser besser zu verstehen oder das Verhalten von Biomolekülennachzuvollziehen.Die Zusammenarbeit zwischen dem Forschungszentrum Jülich und IBM ist fürForschergruppen der verschiedensten Disziplinen nutzbringend. DieSimulation, die sich als dritte Säule der Wissenschaft neben Experiment undTheorie etabliert hat, wurde durch Supercomputing signifikantweiterentwickelt. Durch Simulationstechniken können Problemstellungengelöst werden, die anderweitig aus technischen oder sonstigen Gründen nichtbearbeitet werden könnten.Beispielsweise wurden die Arbeiten eines Forscherteams zurQuantenchromodynamik auf der Jülicher Maschine von der Zeitschrift Sciencezu den zehn wichtigsten Forschungsarbeiten weltweit im Jahr 2008 gezählt.Die Fähigkeit, durch Simulation neue Erkenntnisse zu gewinnen, hängtwesentlich von der nutzbaren Rechenleistung ab. Die Parallelität derAnwendungen und der Systeme bildet angesichts der technologischenEntwicklung eine zentrale Voraussetzung, um signifikante Steigerungen zuerzielen. Daher streben das Forschungszentrum Jülich und IBM an,Anwendungen und Systeme gemeinsam entsprechend zu optimieren.Mit dem Blue Gene-System arbeitet das Forschungszentrum Jülich auch vorallem im Bereich der hochskalierbaren Anwendungen. Jülich kooperiertdarüber hinaus als Pilotanwender mit IBM auch in der Rolle einesArchitekten künftiger HPC-Lösungen zur Vorbereitung des künftigenExaflop-Zeitalters (eine künftige Supercomputing-Klasse mit > 10hoch18Berechnungen pro Sekunde). Damit findet ein echter Wissensrückfluß zurweiteren Entwicklung von Supercomputing statt.Weitere Informationen:www.ibm.com/deepcomputingwww.fz-juelich.de/portal/presse

Mittwoch, 29. April 2009

IBM-Pressemitteilung: IDI rollt weiter

IBM kündigt neue Produkte und Services für dynamische IT-Infrastrukturen an
Anwender investieren in stärker automatisierte Betriebskonzepte zur Reduktion von Kosten und Risiken und zur Verbesserung der Servicequalität

Armonk, N.Y., USA und Stuttgart, 28. April 2009: IBM (NYSE: IBM) hat heute eine Reihe wichtiger neuer Produkte und Services vorgestellt, die IT-Infrastrukturen anpassungsfähiger und flexibler machen. Unternehmen erhalten damit die Möglichkeit, ihre Betriebskosten und Risiken zu senken sowie die Qualität von IT-Services weiter zu erhöhen. Gleichzeitig wurden eine Reihe internationaler Referenzkunden vorgestellt, die beispielhaft ihre Betriebskonzepte dynamisiert haben. Im Ergebnis können Kunden auf Veränderungen externer Faktoren und betrieblicher Belange schneller reagieren und ihre IT auf Herausforderungen einer global vernetzten Welt besser anpassen. Die heutige Ankündigung unterstützt Anwender dabei, die laufend steigende Komplexität in der betrieblichen Infrastruktur, bedingt durch den Zuwachs an zu integrierenden Komponenten und die steigende Anzahl an intelligenten Sensoren und Meßpunkten, im Griff zu behalten. Mehr noch, es lassen sich daraus zunehmend entscheidende Betriebsinformationen zum Vorteil eines Unternehmens ableiten.
IDC schätzt die Marktchance für Software, Server, Technologien und Services zum Betrieb einer immer mehr zusammenwachsenden IT- und Real-Infrastruktur verschiedenster Bereiche in der Welt (wie Verkehr, Versorgung, Produktion) auf bis zu 122 Milliarden Dollar im Jahr 2012.

"Wir bereiten unsere Kunden auf die Anforderungen der Zukunft an eine moderne IT-Infrastruktur vor", sagt Prof. Dr. Gunter Dueck, Cheftechnologe und Business Leader Dynamic Infrastructure, IBM Deutschland, "dabei liegt der Fokus auf dem Erreichen schneller, echter Geschäftsvorteile und der Auswahl der dafür richtigen Investitionen."
Ein Beispiel: So überwacht die Baader Bank AG, eine der größeren Wertpapierhandelsbanken in Deutschland, die gesamte Infrastruktur vom Netzwerk über die Server bis hin zu den Kernapplikationen mit IBM Tivoli Software und verarbeitet über 2 Millionen gemeldete Events pro Tag. Durch schnellere und bessere Fehlermeldungen und die Reduzierung von auflaufenden Meldungen kann die Baader Bank signifikante Verbesserung in puncto Produktivität, Zeitersparnis und Sicherheit verzeichnen und flexibel auf Anforderungen reagieren.
IBM kündigt heute eine große Anzahl neuer Produkte und Services an, um Kunden insgesamt dabei zu unterstützen, dynamische Infrastrukturen aufzubauen. Die neuen Lösungen adressieren dabei sowohl Groß- als auch mittelständische Unternehmen.
Dabei geht es vor allem um folgende Teilbereiche:
- Die Integration digitaler und physischer Infrastrukturen, die die Möglichkeit bieten, mittels Informationstechnologie Geschäftsprozesse und eine zunehmend intelligentere physische Infrastruktur zu verwalten und so neue und verbesserte Services zu betreiben .
- Die Fähigkeit, die 15 Petabyte an Informationen - acht mal mehr Informationen als in allen Bibliotheken in den USA zusammen - , die die Welt täglich neu hervorbringt, zu verwalten, zu speichern und zu analysieren. Dies ermöglicht es Kunden, mit den gestiegenen Anforderungen an Informationsmanagement wie rechtlichen Regelungen, Compliance, Verfügbarkeit, Datenvorhaltung, Risikomanagement und Sicherheit umzugehen.
- Eine Reduktion von Ineffizienzen und eine größere Flexibilität in der heutigen vernetzten und instrumentalisierten Welt. So haben sich zum Beispiel die Rechenzentrumskosten für Energie, Raum etc. seit 1996 verachtfacht. Die durchschnittliche Serverauslastung beträgt dagegen nur 6 bis 15 Prozent.
Ein Teil der heute vorgestellten Produkte und Services wurde auch unter Mitwirkung des deutschen IBM Entwicklungs- und Forschungslabors in Böblingen vorbereitet. Mittlerweile haben auch die ersten IBM Business Partner sich im Rahmen der Dynamic Infrastructure-Initiative ausgebildet. So wurde das Unternehmen FRITZ & MACZIOL von IBM als erster Partner in Europa zum Thema "Dynamic Infrastructure" zertifiziert.
- Seit der Vorstellung des Dynamic Infrastructure-Konzepts von IBM im Februar 2009 haben sich bereits mehr als 5000 Kunden weltweit bei über 100 Veranstaltungen in 23 Ländern über die Möglichkeiten dieses Ansatzes im Hinblick auf die Anforderungen an künftige IT-Infrastrukturen informieren lassen.
- Über 100 Veranstaltungen wurden weltweit auch in den IBM Business Partner Centern für Kunden durchgeführt. Dynamische Infrastrukturen können die IT-Kosten verringern, Risiken reduzieren und die globale Integration fördern.
Cloud Computing ist ein zentrales Konzept für diese Form von Optimierung. Mit der "Erfahrungswelt der IT-Transformation" bietet IBM Kunden auf Basis eines neuen interaktiven und dialogorientierten Workshops den Einstieg und entwickelt mit den Teilnehmern eine Roadmap zur eigenen IT-Transformation.Die neuen Produkte und Services zum Betriebskonzept einer dynamischen Infrastruktur umfassen:
- Einen neuen Beratungsservice - die IT-Optimierungs-Business-Value-Roadmap - um Kunden mit multiplen IT-Projekten dabei zu unterstützen, in der gegenwärtigen wirtschaftlichen Situationen Projektprioritäten zu überprüfen und Ressourcen besser einteilen zu können. Dieser Service kann Kunden dabei helfen, einen Optimierungsplan aufzusetzen, der bis zu 40 Prozent an Kosten einsparen kann, und künftige IT-Projekte auf Schlüssel-Geschäftsprioritäten fokussiert. Zusätzlich können mit der IBM Going Green Impact Analyse die effektivsten Lösungen für die Steigerung der Energieeffizienz und Senkung der Gesamtbetriebskosten (TCO) eines Rechenzentrums identifiziert und priorisiert werden. Nach Umsetzung erforderlicher Maßnahmen bietet IBM gemeinsam mit TÜV Rheinland oder der DEKRA eine Energieeffizienz-Zertifizierung des Rechenzentrums an.
- Zwei neue IBM System x Appliances für System- und Anwendungsmonitoring und Servicerequest-Verwaltung. - Das IBM Service-Management-Center für Cloud-Computing, das jetzt IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security und IBM Tivoli Security Management für z/OS umfasst. Die übergreifende IBM Lösung stellt die notwendigen Werkzeuge und Verfahren bereit, mit denen der Lebenszyklus von Cloud-Services von der Servicedefinition bis zur Beendigung des Service verwaltet werden kann. Das IBM Service Management Center unterstützt sowohl die Bereitstellung virtueller Ressourcen als auch die Optimierung virtueller Operationen.
- Die neue Software IBM Tivoli Identity and Access Assurance, IBM Tivoli Data and Application Security sowie IBM Tivoli Security Management für z/OS ergänzen das IBM Service Management Center for Cloud Computing, eine Zusammenstellung von Ressourcen, um Cloud-Umgebungen zu verwalten.
- Die neue Software IBM Telelogic System Architect ermöglicht es Organisationen, die Auswirkungen des Einsatzes einer Cloud-Umgebung zu visualisieren und zu verstehen. Sie bietet einen Prozessablauf für die Entwicklung von Software-Komponenten, die sich an der Cloud-Strategie ausrichten. Zusätzlich unterstützt die Integration von Telelogic Focal Point die IT-Verantwortlichen dabei, das Feedback von Anwendern im Unternehmen zu sammeln, um strategische Entscheidungen zu erleichtern, Aktivitäten zu gewichten und Projektpläne für den Einsatz von Cloud Computing mit größtmöglicher Wertschöpfung zu entwickeln.
- Der neue IBM Tivoli Foundations Application Manager und der IBM Foundations Service Manager stellen Angebote für System- und Application-Monitoring sowie Service-Request-Managemet bereit, die auf einer Out-of-the-box-System x-Appliance basieren. Die Sichtbarkeit, Kontrolle und Automatisierung, die der Tivoli Foundations Application Manager und der Tivoli Foundations Service Manager ermöglichen, eignen sich besonders für kleine und mittlere Unternehmen, die Kosten reduzieren, Risiken managen und ihre Servicequalität verbessern möchten.Neue Infrastrukturangebote, die Kunden bei Kosteneinsparungen und höherer Energieeffizienz unterstützen sollen:
- Ein neues IBM Business Partner-Programm - Ready for Energy and Environment, das Partnerlösungen, die Kunden bei Energieeffizienz und Kosteneinsparungen helfen sollen, zertifiziert. - Die POWER6+ Mikroprozessor-Technologie bietet gegenüber früheren Systemen eine Leistungssteigerung um bis zu 10 Prozent und kann den Energieverbrauch um bis zu 30 Prozent senken. In POWER6+ sind Features enthalten, die Software-Anwendungen verlässlicher machen und Ausfällen vorbeugen können.
- Die neuen Blade-Server BladeCenter JS23 und JS43 Express sind POWER6+
-Blades für 64-bit-Anwendungen auf IBM i-, AIX- oder Linux-Betriebssystemen. Durch den Einsatz von POWER6+ liefern sie Leistungsverbesserungen von bis zu 20 Prozent gegenüber früheren Versionen.
- Die neuen IBM Power 520 und 550 Express-Server mit POWER6+ Prozessoren (bis zu 5 GHz), die Kunden eine Flächeneinsparung im Serverbetrieb von bis zu 92 Prozent durch Konsolidierung ermöglichen.
- Eine branchenweit erstmalig vorgestellte Virtualisierungssoftware-Eigenschaft
- IBM PowerVM Active Memory Sharing, die es ermöglicht, Hauptspeicher automatisch von einem virtuellen Server oder einen logischen Partition zum nächsten zu verschieben
- für erhöhte Auslastung und Flexibilität bei der Nutzung von Hauptspeicher. Mit dieser Software kann Hauptspeicher gepooled und an fluktuierende Arbeitslasten angepasst werden.
- Zwei neue System x-Server mit der aktuellen x86-Technologie und der vierten Generation der IBM X-Architektur: Die 2-Sockel-Tower-Server x3400 M2 und x3500 M2.
Die Systeme verfügen über neue Wärmeableitungsdesigns, neue Spannungsregler und eine höhere Integration auf der Platine, um die Stromversorgung zu verbessern und Verteilungsverluste zu vermindern. Dabei wird im Vergleich zu Vorgängersystemen eine Energieeffizienz von mehr als 92 Prozent erreicht und eine annähernd sechzigprozentige Reduktion im Stromverbrauch, wenn die Systeme nicht ausgelastet sind bzw. um bis zu fünfundzwanzig Prozent, wenn die Systeme voll ausgelastet sind. Weitere neue Technologien in den Systemen umfassen System-Management-Tools wie das Integrated Management Module, das Unified Extensible Firmware Interface (UEFI) sowie Systems Director and Tools Center, die Kunden dabei unterstützt, virtuelle Infrastrukturen mit weniger Hardware aufzubauen. Kunden können eine 11:1-Konsolidierung erreichen, wenn sie von x86-Servern der Generation aus dem Jahr 2005 auf IBM HS22-Blades migrieren; beim Übergang auf x3650 M2-Server lässt sich eine geschätzte 9:1-Konsolidierung erreichen.
- Neu vorgestellt wurde auch ein überarbeiteter IBM Cluster 1350, eine vollintegrierte Lösung für den HPC-Bereich, der die Strom- und Kühlkosten um bis zu fünfzig Prozent senken konnte.
- Die neuen Software-Angebote IBM Tivoli Monitoring for Energy Management und Tivoli Business Service Manager ermöglichen es Kunden, Daten aus intelligenten Sensoren und anderen Quellen zu ziehen, um durch die Erfassung des Energieverbrauchs von IT und Facility-Ressourcen den Energiebedarf im gesamten Unternehmen und in der IT-Infrastruktur zu verwalten.Neue Angebote zur Verwaltung, Analyse, Speicherung und Sicherung ständig steigender Informationsmengen:- Eine neue Risikomanagement- und Business-Intelligence-Software für System z-Mainframes: Der ACI Proactive Risk Manager (PRM) für System z wurde dafür entwickelt, Betrugsversuchsseinschätzungen bei hohen Transaktionsraten im Kreditkartengeschäft vorzunehmen, wenn es um die Frage geht, ob im Rahmen eines Autorisierungsprozesses eine Transaktion genehmigt oder gestoppt wird. - Eine neue Version des IBM System Storage DS5000, die selbstverschlüsselnde Plattentechnologie für Midmarket-Kunden enthält. Damit werden Daten automatisch gegen nichtautorisierten Zugriff geschützt. Die Lösung unterstützt Kunden so bei der Erfüllung regulatorischer Auflagen. Weitere Verbesserungen umfassen schnellere 8-Gbps-Adapter sowie eine erhöhte Kapazität von bis zu 448 Plattenlaufwerken in einem einzigen System.- IBM Cognos 8 Business Intelligence für Linux auf System z stellt einen schnellen Zugang zu den aktuellsten Geschäftsinformationen von praktisch jedem Ort bereit und unterstützt Handheld-Geräte wie BlackBerries.- Die neue Entwicklungssoftware IBM Rational AppScan On Demand unterstützt Unternehmen dabei, Risiken zu minimieren, indem sie sicherstellt, dass Web-Anwendungen in der Cloud sicher und compliant sind und mit den Geschäftsgrundsätzen übereinstimmen. Sie trägt Sorge dafür, dass Anwendungen frei von Viren, Würmern, Trojanern und anderen Arten von Schadsoftware sind, die immer ausgeklügelter werden.
- Eine neue Version des Tivoli Storage Productivity Center stellt neue Performance-Analyse-Werkzeuge und individuelle Zuschnittsmöglichkeiten bereit, die IT-Administratoren in die Lage versetzen können, sehr große Speicherumgebungen verwalten zu können.Gleichzeitig läßt sich dabei die Systemleistung insgesamt verbessern, die Komplexität vermindern und die Verfügbarkeit erhöhen. Die neue Analysetechnologie hilft bei der Feststellung von Hot Spots für eine bessere Problembestimmung und schnellem Tuning um die Storage-Auslastung zu optimieren. Die Software bietet darüber hinaus erweiterten heterogenen Plattform-Support sowie Sicherheitsmerkmale für Multi-Vendor-Speicherumgebungen.
Neue Networking-Angebote-
IBM hat heute neu Hardware, Software und Services vorgestellt, um die Netzwerk-Konnektivität im Rahmen größerer Infrastruktureffizienz zu verbessern. Auf Basis der langjährigen Erfahrung im Networking stellt IBM dabei ein neues Serviceangebot vor: die IBM Networking, Strategy, Optimization and Implementation Services für Konsolidierung und Virtualisierung- Als Teil der heutigen Ankündigung erweitert IBM auch die Auswahlmöglichkeit für Netzwerkkonnektivität. Dabei wird die OEM-Vereinbarung mit Brocade erweitert zur Vorstellung einer neuen Familie von Ethernet-Switches und Routern mit IBM Logo. Diese ergänzen die gegenwärtigen Angebote. IBM hat darüber die Zusammenarbeit mit Juniper ausgeweitet. Im Februar haben beide Unternehmen hybride Public-Private-Cloud-Möglichkeiten vorgeführt. Als Teil der heutigen Ankündigung hat IBM auch neue Finanzierungsoptionen vorgestellt, um die Beschaffung von Produkten und Services aus dem Dynamic Infrastructure-Portfolio zu erleichtern.
Weitere Informationen: www.ibm.com/dynamicinfrastructure

Montag, 13. April 2009

Die 5.000.000.000-Dollar-Wette (Part 3)

Die Väter der /360: Gene Amdahl, Frederic Brooks, Gerrit Blaauw
Zwischen 1965 und 1995 ‑ so stellte eine Untersuchung fest ‑ wurden mehr neue Informationen produziert als in den 5000 Jahren zuvor. Seitdem ist endgültig klar: Die Geistesmaterie dominiert längst die physische Welt. Von 1985 bis 1995 hat sich die Zahl der Minuten, die jährlich für Gespräche, Fax‑ und Datensendungen auf dem weltweiten Telekomnetz abgewickelt werden, von 15 auf 60 Milliarden vervierfacht. Im Jahr 2000 werden wir bereits 95 Milliarden Minuten telekommunikativ verbrauchen, wie eine Gemeinschaftsstudie von British Telecom/MCI ergab. Tatsächlich explodierte mit dem Internet das Kommunikationsvolumen in kaum mehr fassbare Volumina.
POP-Artist Amdahl
Kein Werkstoff wurde so gründlich erforscht wie Silizium, diesem Rohstoff aus reinem Sand, aus dem die Chips gefertigt werden. Erfahrungen im Umsatzwert von 1000 Milliarden Dollar wurden in den letzten 35 Jahren aus schnödem Sand gewonnen. Ebenso hoch sind die Investitionen, die Computeranwender in aller Welt seit 1964 in Software für Mainframes hineingesteckt haben. Als die /360 entwickelt wurde, befand sich dies alles noch in den Anfängen.
Gene Amdahl propagierte anfangs den sofortigen Sprung in eine mit integrierten Festkörper‑Schaltkreisen (ICs) ausgestattete Rechnerserie. Ein gewagtes Unterfangen. Denn die parallel 1958 von Jack Kilby bei Texas Instruments und von Robert C. Noyce bei Fairchild entwickelten ICs waren äußerst schwierig zu produzieren. Die Ausbeute betrug nur zehn Prozent der Produktion. Die besserte sich zwar, nachdem Noyce 1960 in dem von seinem Schweizer Kollegen Jean Hoerni entwickelten Planar‑Prozess ein geniales Herstellungsverfahren nutzen konnte, aber für den Masseneinsatz der Integrated Circuits in Computern war das noch keineswegs befriedigend. Weder Technologie noch Methodologie waren ausgereift. Zudem klang zu Beginn der sechziger Jahre gerade erst ein Streit aus, bei dem es um die Frage ging, ob nun Silizium oder Germanium der bessere Werkstoff war.
Deshalb hatte IBMs Chefwissenschaftler Emanuel Piore, den Watson Jun. 1956 von der Navy abgeheuert hatte, beschlossen, auf eine hybride Technik, die Solid Logic Technology (SLT), zu setzen. Die Schaltkreise wurden dabei auf halbzollgroße Keramikmodule aufgebracht. SLT versprach eine höhere Packungsdichte als bei Transistoren, war auch schneller und verbrauchte weniger Strom, aber von integrierten Schaltkreisen konnte noch nicht die Rede sein.
Diese Entscheidung, für die Big Blue Mitte der sechziger Jahre noch ausgelacht wurde, sollte sich als Glücksgriff erweisen. Denn IBM umging damit im Unterschied zu ihren Mitbewerbern die Kinderkrankheiten der neuen Chiptechnologie.
1952 war Gene Amdahl zu IBM gekommen und hatte hier an der Entwicklung der Röhrenrechner IBM 704 und 705 mitgewirkt. Es waren die ersten kommerziellen Rechner, die mit Kernspeichern ausgestattet wurden. Ein Jahr nach deren Ankündigung, 1955, verließ Amdahl die Company, um fünf Jahre später, 1960, wieder anzuheuern. Er wurde der »Vater der /360« (Watson über Amdahl). Als er mit deren Entwicklung begann, hatte Amdahl bereits 13 Jahre Erfahrung im Bau von Computern hinter sich. Er wusste, worauf es ankam. Und er akzeptierte Piores Argumente. Er stand über der Materie.
Amdahl formulierte das »Heiligtum«, die Principles of Operations, das Ordnungsprinzip. Es war eine »sehr komplexe und herausfordernde Aufgabe«, beschreibt Amdahl das Unterfangen. Es galt eine Rechnerfamilie zu konzipieren, in der das kleinste Mitglied nach denselben architektonischen Prinzipien operierte wie das größte System. Und dabei bestand durchaus die Möglichkeit, dass eine Leistungs‑Spannweite von 1 zu 600 überdeckt werden musste.[1]
Ein absolut visionärer Ansatz.
Erst 25 Jahre später, 1989, sollte IBM übrigens dieses Ziel erreichen. Die Principles of Operations waren ein Triumph des Computer Engineerings. Alle Entwickler mussten sich danach ausrichten. Nur der konzertierten Einhaltung dieser Grundsätze war es zu verdanken, dass sechs Prozessoren mit 19 unterschiedlichen Varianten gleichzeitig an verschiedenen Orten in den USA und in England entwickelt werden konnten. Hiermit wurde erstmals eine globale Plattform für Know‑how‑Transfer geschaffen, an die im Laufe der Jahre immer mehr Labors andocken konnten. Eine klare Speicherhierarchie wurde festgelegt. Hinzu kamen Entwicklungen bei Platten, Zeilendruckern, Bildschirmterminals sowie jede Menge Optionen und Features. IBM griff tief in das Schatzkästlein ihres intellektuellen Kapitals. Insgesamt mußten mehrere hundert Entwicklungsprojekte koordiniert werden. Das Ergebnis: Am Tag der Ankündigung wurden 131 technologische Errungenschaften der /360 zum Patent angemeldet.
Gute vier Jahre später, am 3. September 1968 wurden sie unter der Patentnummer 3.400.371 als einzigartig anerkannt.[2]
Die Blaauw‑Pause
Doch um die Leistung zu verstehen, muß man tiefer in die Entwicklungsgeschichte der /360 und deren Anfänge einsteigen. So groß die Autorität von Amdahl auch war, um seine Pläne durchsetzen zu können, mußte er zunächst seine stärksten Widersacher auf seine Seite ziehen. Zuerst und sehr früh gelang ihm dies bei Bob Evans.
Er war bis 1961 in der General Systems Division Manager (GSD) in Endicott (New Jersey) mitverantwortlich für die Entwicklung und Produktion der IBM 1401, jenem Transistorrechner, von dem IBM bis 1966 weltweit 10.000 Exemplare verkaufte. Die GSD war indes spinnefeind mit der Data Systems Division (DSD) in Poughkeepsie (New York). Die eigentlich auf technisch‑wissenschaftliche Rechner ausgerichtete DSD versuchte mit ihrem Starprodukt, der IBM 7090, immer häufiger der 1401 das Wasser abzugraben.
Doch Anfang 1961 war Evans Planungs‑ und Entwicklungschef der DSD geworden und wurde ein Verbündeter von Amdahl. Derweil hatte dieser es mit einem noch härteren Brocken zu tun: mit Gerrit Blaauw. Er war ein brillanter, aber eher konservativer Denker. Er hatte noch an der transistorgerüsteten Rechnerserie IBM 8000 gearbeitet, die ursprünglich die Riesenrechner vom Typ 7090 ersetzen sollte.
Und diese Blaupause verteidigte Blaauw gegen die Totalerneuerer um Gene Amdahl. Die beiden überwarfen sich. Amdahl war das Konzept hinter der 8000 nicht homogen genug. Zudem missfiel ihm, dass diese Serie nochmals auf Transistoren basieren sollte.
Es kam in den ersten Monaten 1961 zu heftigen Auseinandersetzungen, denen Evans am 15. Mai 1961 ein Ende setzte. Die 8000er Serie wurde begraben. Evans Urteil: »Nach meiner Meinung war die Maschine in vielerlei Hinsicht inadäquat.«[3] Er verwarf die 8000 vor allem deshalb, weil ihre Lebensspanne kaum über das Jahr 1968 hinaus dauern würde. Und IBM wollte unbegrenzte Zukunft verkaufen.
Damit war ein wichtiges Hindernis auf dem Weg zum SPREAD‑Konzept aus dem Weg geräumt. Dieses Begräbnis bedeutete, dass IBM bei der Entwicklung der /360 ohne echte Ausweich‑Lösung dastand. Denn Learson hatte auch jegliche Erweiterungsarbeiten bei der 7000er Serie gestoppt. Er riß alle Brücken hinter sich ab. »Die Vorgänger‑Systeme waren längst an die Grenzen ihres Adressraumes und ihrer Speichermöglichkeiten angekommen. Es war klar, dass eine neue Technologie mehr Speicherplatz schaffen würde. Und die Kunden hatten unmissverständlich zum Ausdruck gebracht, dass sie mehr Speicher wollen«, analysiert Case, der selbst an der Entwicklung der /360 mitgewirkt hatte, die Situation zu Beginn der sechziger Jahre.[4]
VIER MILLIONEN DOLLAR FÜR EIN MEGABYTE
Das technisch‑wissenschaftliche Größtsystem 7090 hatte maximal 128 Kilobytes Hauptspeicher, im Unterschied dazu bot die /360 einen realen Adreßraum von sensationellen 16 Megabytes. Das war potentiell 125mal mehr. Und mit diesem breiten Horizont erweckte IBM bei den Kunden den Eindruck, dass mit dem Umstieg auf /360 die Superlösung gefunden war, wenngleich bei einem Preis von vier Millionen Dollar pro Megabyte der Speicher nach wie vor sehr teuer war. 64 Millionen Dollar hätten bei einer voll ausgebauten /360 allein die Memories gekostet. Auch wenn keiner der Kunden diesen Adreßraum real ausnutzen konnte, so suggerierte ihnen dieses architektonische Potential eine unendlich groß wirkende Zukunft. Der Bruch mit der Vergangenheit war vollzogen. Blaauw wechselte das Lager. Er wurde »meine rechte Hand in Fragen der Architektur«, erinnert sich Amdahl.[5]
Die Sache war größer als das Ego der Beteiligten.
Brooks' Brocken
So bildete sich allmählich das /360‑Team, aber es war noch sehr stark hardware‑ und architekturlastig. Was fehlte, war der geniale Softwaremann. Diesen Part sollte Frederic Brooks übernehmen. Auch er hatte als Planungschef in Poughkeepsie für die 8000 gekämpft. Noch im März 1961 hatte er selbst vor dem Corporate Management‑Committee das Konzept dieses neuen Rechners präsentiert. Siegessicher war er aus der Sitzung herausgegangen.
Doch dann hatte er zwei Monate später den Tod seiner Serie erleben müssen. Er sah darin auch das Ende seiner Karriere. Als dann die /360 aufgesetzt wurde, machte ihn deren Planungschef Evans zu einem der wichtigsten Projektleiter. »Eine Entscheidung, die eine große Zahl von IBMern überraschte, inklusive Brooks«, kommentierte dies 1966 das Magazin Fortune. Unter Brooks Führungs sollte dann das Betriebssystem OS/360 entwickelt werden. Ein harter Brocken. »Ihm hatten wir vor allem zu verdanken, dass die /360‑Maschinen auch in der Praxis eingesetzt werden konnten«, würdigte Watson das Genie dieses Mannes.
Das Betriebssystem OS/360 ist übrigens der Urgroßvater des MVS , das zwischendurch unter dem Kürzel OS/390 wieder an seinen Ursprung anknüpfte, heute als Z-OS firmiert. Die Erfahrung, die Brooks bei diesem Projekt als Teamchef sammelte, sollte ihn später dazu animieren, das wohl beste Buch zu schreiben, das je über Softwareentwicklung publiziert wurde: »The Mythical Man Month«, das 1974 erschien.
Schon in der Vorzeit der /360 gab es Betriebssysteme. Seit 1953 hatten die Computerpioniere an den Universitäten und bei den Herstellern über die Entwicklung von Betriebssystemen nachgedacht, doch die bisherigen Ergebnisse waren allesamt rechnerspezifisch. Für den technisch‑wissenschaftlichen Rechner IBM 704, einer der stärksten seiner Zeit, gab es 1957 mehrere von den Anwendern selbstgestrickte Betriebssysteme.
IBM hingegen wollte ein einziges Operating System schaffen, das für mehrere Rechner mit derselben Architektur gültig war. Codierumfang: 3 Millionen Zeilen. Niemand hatte wirklich Erfahrung auf diesem Gebiet.
IBM wird 100: Ein Video aus Poughkeepsie

WATSON-MÄRCHEN: SO WURDE EIN BETRIEBSSYSTEM GESTRICKT
Mit welcher Naivität die Entwickler an dieses Unterfangen herangingen, soll folgende, erfundene Anekdote erzählen: Thomas Watson Jun. hatte im Forschungszentrum in Yorktown Heights rund tausend Programmierer in den größten Sitzungssaal geladen. Jeder hatte vor sich einen Bleistift und ein Blatt Papier. Dann sagte Watson nur ein einziges Befehls‑Wort: »Codiert!« Nachdem jeder der Programmier‑Knechte zehn Instruktionen niedergeschrieben hatte, sammelte der Firmenchef persönlich die Blätter ein. Die Loseblattsammlung schickte er dann in die Arbeitsvorbereitung, wo die 10.000 Instruktionen auf Lochkarten erfasst wurden. Anschließend wurden sie in den Prototyp einer /360 eingegeben.
Auf diese Weise soll das erste Betriebssystem der neuen Rechnerserie auf die Welt gekommen sein ‑ mit den Mitteln der Massenproduktion.[6]
Was die Anekdote sagen will: Als viel zu einfach hatte sich IBM die Entwicklung der Systemsoftware für die /360 vorgestellt. So war es kein Wunder, dass sich die Entwicklung des Betriebssystems als »ein absoluter Weichmacher im knallharten Konzept« (Reiboldt/Vollmer: Der Markt sind wir) erweisen sollte.
Allein die Entwicklung des OS/360 verbrauchte zwischen 1963 und 1966 etwa 5.000 Mannjahre. Dabei war spätestens ab 1965 klar, dass die Implementierung eines einzigen Betriebssystems für alle Rechner nicht gelingen konnte. Kurzerhand eliminierte IBM 35 der ursprünglichen Anforderungen, und sie splittete das Einheits‑Angebot. Heraus kamen im Laufe der sechziger Jahre insgesamt vier strategische Betriebssysteme, die nur eins gemeinsam hatten: ihren Ursprung in der /360‑Architektur. Das Investment dahinter war so groß, dass IBM fortan der Sklave dieser Architektur wurde.
Quellen
[1] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [2] Datamation, 5/84, Robert L. Patrick: »The seed of empire« [3] Computerworld, 24.4.89, Patrick Waurznyak: »The men behind the machine« [4] Computerworld, 3.11.86, James Connolly, Jeffrey Beeler: »The price of success: IBM /370 system won`t die« [5] Computerworld, 24.4.1989, Patrick Waurznyak: »The men behind the machine« [6] The IBM User, 11/81; »The 360 was born with two rival operating systems. IBM users are still paying the price«

Sonntag, 12. April 2009

Die 5.000.000.000-Dollar-Wette (Part 2)

Größer als das Manhattan-Project
Um die Größe und Grandiosität dieser Ankündigung zu ver­stehen, muß man die Hintergründe durchleuchten, die zu die­sem spek­takulären Ereignis führten. Warum zum Beispiel hatten sich da­mals, im Januar 1961, bei der Sitzung des Topmanagements, die Tech­no­logen durch­set­zen können? Wieso hatte das Topmanagement seine Zu­stim­­mung zu ei­nem Projekt erteilt, bei dem die Firma ihre gesamte Exi­stenz aufs Spiel setzte? Antwort: IBM befand sich in einem tech­no­lo­gi­schen Rückstand. Ihre Produktlinien waren zur Jah­res­wende 1961/62 ausge­reizt und ihre Patente nichts mehr wert.
Die Firma hatte sich in den fünfziger Jahren daran gewöhnt, mit Wachs­tums­raten von mehr als 20 Prozent zu leben. Sie hatte 1957 erstmals eine Milliarde Dollar umgesetzt. Doch seit 1958 hatte sich das Wachs­tum verlangsamt. So waren die Umsätze 1958 nur um 17,1 Prozent und in 1959 um magere 11,8 Prozent geklettert. 1960 war das Wachstum sogar knapp unter die Schwelle von zehn Prozent gerutscht. Der einzige Licht­blick: 1961 legte die Firma wieder ein Plus von 18 Prozent zu.[1] Aber war das ge­nug für eine Firma, die zuvor alle vier Jahre ihre Um­sätze ver­dop­pelt hatte? Wohl kaum. Sie spürte, daß ihre bislang sorg­sam gehüteten Markt­anteile bedroht waren.
Neue Wettbewerber wie die Control Data Corp., Radio Cor­poration of America oder Ho­ney­well tra­ten auf, wäh­rend sich die alten Kon­tra­hen­ten durch Aufkäufe vergrößerten. Mehr noch: die Kon­kurrenz be­gann, das Geschäft mit kompatiblen Rechnern zu entdec­ken, um so der IBM die Kunden abspenstig zu machen. Wut staute sich auf, aber auch Mut. Und beides hatte seinen Ursprung in der Ver­gangenheit.
Trommeln der Macht. 1953 hatte IBM mit dem Magnetic Drum Cal­culator Type 650 einen speicherprogrammierten Röhren‑Rechner vorgestellt, der etwa soviel Computerpower besaß wie ein Videorekorder. Es war die erste Maschine, die eine Magnet­trom­mel als Haupt­spei­cher benutzte ‑ und sie gehörte damit in jener Zeit zur absoluten Avant­garde. Diesen Vorsprung ließ sich IBM gut bezahlen. Die Mo­nats­­miete betrug 3250 Dollar, was nach heutigem Geld etwa der Summe von 18.000 Dollar entspricht. Die Marketiers hatten ausgerech­net, dass die Firma mit einem kleinen Gewinn herauskommen würde, wenn es ihr gelang, wenigstens 50 Magnet­trommeln zu vermieten. Ein Vermögen würde indes die Gesell­schaft er­wirtschaften, wenn sie gar 250 Ma­schi­nen an den Mann zu brächte. Doch es kam viel besser: »Als die Maschine 1962 vom Markt zurück­ge­zo­gen wurde, waren mehrere Tausend die­ser Rechner verkauft worden. So wurde diese primitive Ma­schine der erste massen­pro­du­zierte Rech­ner der Welt«, erinnerte 1994 das Wirtschaftsmagazin The Economist an diese Novität.
Es lohnte sich also, Mut zu haben. Wütend waren Watson und sein Gefolge geworden, als Ende der fünfziger Jahre der Erzrivale Univac mit seinem Tran­­si­stor­rechner Univac 80 genau gegen diesen Magnet­trom­melrechner zu Felde zog und kräftig abstaubte.
Schon zu Hollerith‑Zeiten hatte die Firma erleben müssen, daß immer dann, wenn sich ein Technologiewechsel ab­zeichnete, die Wettbe­wer­ber ihre Riesenchance sahen. In einer solchen Lage war IBM jetzt wieder. Sie musste sich durch einen Befreiungsschlag aus die­sem Di­lem­ma befreien ‑ und sich diesmal an die Spitze der Revo­lu­tion stel­len. Seine Erfahrungen aus den fünfziger Jahren hatten Watson Mut gemacht, ein solches Unterfangen nun im ganz großen Stil zu wagen.
Die einzige Chance, die Brut der Wettbewerber hinter sich zu las­sen, bestand da­rin, viel Geld an­zu­fassen, einen radikalen Bruch mit der Vergangenheit zu wagen und sich durch eine Vielzahl von In­no­va­tio­nen mit deutlichem Vorsprung vom Wettbewerb abzusetzen ‑ und zwar auf weltweiter Basis. Auf all das hatte der 50jährige Vi­ce Pre­­sident T. Vincent (Vin) Lear­son seinen Chef nachdrücklich auf­merk­sam gemacht. Nur eine »New Product Line (NPL)« könne IBM aus dem Dilem­ma be­frei­en. Watson spür­te selbst »den Druck des Marktes«. Er ahn­te, dass er alles auf eine Kar­­te set­zen musste. Die La­ge war brenz­lig. Aber er war Vaters Sohn, und er wollte der Welt zeigen, dass er ebenfalls ein guter Unternehmer war.[2]
Manhattan‑Project. So startete IBM zur Jahreswende 1961/62 in ihr aufregendstes Abenteuer, das von der Öffentlichkeit alsbald in Su­per­lativen gefeiert wurde. »Es war die größte industrielle Inve­sti­tion, die jemals in der In­du­strie­geschichte von einem Privat­un­ter­nehmen aufgebracht wurde. IBM wandte für die Zeugung dieser einen Se­rie fünf Mil­liar­den Dol­lar auf. Das entsprach 1966 den gesamten Ein­­nah­men aller Compu­ter­her­steller der Welt«, staunte 1970 der Spie­­gel‑Journalist Kurt Blauhorn in seinem Buch »Erdteil zweiter Klasse ‑ Europas technologische Lüc­ke«.[3] In der Tat ‑ rund 4,5 Mil­­liarden Dollar Ka­pi­talin­ve­sti­tio­nen für Fabriken, Ausrüstung und Miet­ma­schi­nen hatte IBM im Umfeld der /360‑Ankün­di­gung aufge­bracht. Hinzu kamen weitere 750 Millionen Dollar für die technische Ent­wicklung. Zum Ver­gleich: Für ENIAC, für den ersten praxiserprobten Röhren­rechner der USA, waren bis zu sei­ner In­be­trieb­nahme 1946 Entwicklungsgelder von insgesamt 600.000 Dollar ge­flos­sen.[4] Noch ein Vergleich: als 1965 die Firma Boeing Company mit der Ent­wicklung des Jum­bos begann, sollte sie für die dann 1969 vorgestellte Boeing 747 rund eine Mil­liarde Dollar inve­stie­ren. Der französische Starpublizist Jean‑Jac­ques Ser­van‑Schrei­ber staun­te 1967 in seinem Best­seller »Die amerika­nische Her­aus­for­de­rung« über IBMs Auf­wand, den er in jenen Kategorien sah, in die eigent­lich nur noch der mo­derne Staat dachte: »Das entspricht der jähr­li­chen Gesamt­investition der Ver­einigten Staa­ten, die Re­gie­rungs­gel­der einbe­griffen, für Raum­for­schung.« Zum Vergleich: Das Manhat­tan‑Project, das nach dem japanischen An­griff auf Pearl Har­bor am 7. De­zember 1941 der da­ma­lige US‑Prä­si­dent Franklin Roose­velt als ge­heime Operation ge­star­tet hatte und im August 1945 zum Abwurf der Atombombe auf Hiroshima führte, hatte 2,5 Mil­liar­den Dollar geko­stet und die USA zur ersten Nu­klear­macht emporsteigen lassen. 150.000 Menschen hatten auf dem Höhepunkt der Arbeiten am Manhat­tan‑Project mitgewirkt, das in Los Ala­mos sein Zen­trum hatte.
Brain drain. »Nahezu jeder, der in der amerikanischen Physik Rang und Namen hatte, war damals in diesem Labor be­schäf­tigt«, er­in­nerte 1994 die Frankfurter Allgemeine Zeitung an das gigantische Unter­fan­gen, bei dem der Staat die technische Intelligenz aus aller Welt in seinen Forschungszentren versammelte.[5] IBM, die schon in den dreißiger Jahren in mehr als 70 Ländern der Er­de prä­sent war, konnte auf eine Ingenieurs‑Elite zu­rück­greifen, wie sie vielleicht nicht einmal den mächtigsten Nationen zur Verfü­gung stand. Ihre Techno‑Offensive er­reichte mit der Vor­be­reitung und Ver­mark­tung der /360 einen solchen Druck, daß ihr Mit­bewerber vorwarfen, Ingenieurs‑Intelligenz zu monopo­li­sie­ren. Ser­van‑Schrei­ber be­hauptet, das »IBM ihren Konkurrenten die besten Spezialisten zu wahren Gold­preisen« abgekauft habe. Ein bitterer Vorwurf. Denn die gesamte Kon­kur­renz buhlte weltweit um die­se Intelligenz‑Res­sour­ce, die un­glaub­lich viel zum Wohlstand und zur techno­lo­gischen Über­le­gen­heit der USA beigetragen hatte. Der brain drain Richtung Neue Welt erreichte damals seinen Hö­he­punkt.
Hatte der Krieg beim Manhattan Pro­ject Physiker und Mathe­ma­tiker vornehmlich aus Ungarn, Österreich und Deutschland in die USA ver­trie­ben, so war es jetzt die Macht der Dollars, die das human ca­pi­tal nach Nordamerika lockte. Das Wirt­schafts­magazin Busi­ness Week stellte im September 1967 fest, dass allein zwi­schen 1956 und 1966 insgesamt 9875 Wissenschaftler & Techniker aus dem Aus­land in die USA gekommen waren, ein starkes Drittel davon aus Euro­pa. Kurz­um: das kurze 20. Jahrhundert fand in den USA statt. Und IBM wollte das stolze Vor­zeige‑Unternehmen dieser Ära wer­den.
Fürchterliches Desaster. Mit unglaublichem Mut ging sie an ihr /360‑Werk. Die Investitionen waren so hoch, dass IBM ‑ würde das Experiment miss­lingen ‑ wohl dem Niedergang geweiht gewesen wäre. Es war das »$5.000.000.000 Gamb­le«, wie Fortune im September 1966 titelte. Es war die »ris­kan­teste Ge­schäfts­ent­scheidung«, die bis dahin ein Un­ternehmen gefällt hat­te. Nicht etwa wegen der hohen Zahlungsverpflichtungen, die zwi­schen 1961 und 1967 von 150 Mil­lionen Dollar auf satte 1,16 Mil­li­ar­den Dollar hochschnellten, sondern weil sie praktisch ohne Fall‑Back‑Lösung in das Aben­teuer ge­startet war. Mehr noch: als sie im April 1964 die Rechnerserie voreilig ankündigte, war noch gar nicht sicher, ob diese überhaupt jemals ausgeliefert werden konnte.
Sei­ne Be­gründung: Kein Staat der Erde würde auf Dauer akzeptieren, daß ein multinationales Unternehmen in der Grö­ßen­ordnung der IBM jähr­lich um zehn bis 20 Prozent wächst, während die Volks­wirt­schaften der großen Indu­strie­nationen sich mit einer Rate von zwei Pro­zent be­gnü­gen müßten. Zu diesem Zeitpunkt erreichte IBMs Weltumsatz um­ge­rechnet zehn Prozent des Brutto­so­zial­pro­duk­tes des Vereinigten Kö­nigreichs.
In Frankreich machten sich ein Jahr später, 1979, die beiden Spit­zen­beamten Simon Nora und Alain Minc auf, in ihrer Best­seller‑Stu­die »Die In­formatisierung der Gesellschaft« die Eu­ro­päer zum Ge­gen­angriff aufzurufen. »Die Politik muss vor allem die neuartige Her­ausforderung durch IBM berücksichtigen: Gestern noch Rechner­her­steller, morgen Betreiber von Nachrichtennetzen verfolgt dieses Un­ter­nehmen eine Strategie, die es in die Lage versetzt, ein Nach­rich­ten­netz zu errichten und zu kontrollieren. Es greift damit in ei­ne Sphäre ein, die traditionell eine Staatsdomäne ist.«
Des­halb rie­ten die beiden Autoren dazu, eine internationale »Allianz der Fern­mel­de­gesellschaften« gegen IBM aufzubauen. Kurzum: im Ansehen der Po­li­tik war Big Blue so stark, dass sie die Souveränität und Le­gi­ti­ma­tion der Nationalstaaten gefährdet sa­hen.
Vision impossible. Doch ihre Sorge war unbegründet. Denn zu diesem Zeitpunkt stand längst kein Watson mehr an der Spitze des Unter­nehmens. Nach einem Herzanfall war der Junior 1971 abgetreten. Die Watson‑Ära war zu Ende. Von den Nachfolgern war nie­mand be­reit, noch einmal wegen einer technologischen Herausforderung die ge­samte Company aufs Spiel zu setzen.
Dabei hatte IBMs Wissenselite in den Labors längst ein Modell ent­wickelt, das weit­ge­hend dem ent­sprach, was heute Network Centric Computing heißt. Ziel war es, das papierlose Büro zu schaffen, von dem die Technologen der Company spätestens seit 1964 träumten. Die vernetzte Welt war eine ebenso naheliegende, wie gigantische Vi­sion. Zum einen mußte man nur auf Zeichnungen der Telefonnetze schauen, um zu erkennen, daß sie im Großen jene Strukturen abbil­de­ten, die im Kleinen durchaus de­nen der Computer ähnelten. Die Schalt­­­bilder der Chips und die der Telekomnetze, mit deren Elek­tro­nisierung justament begonnen wurde, unterschieden sich optisch le­diglich in den Dimen­sio­nen. Man brauchte nur eine schnel­­le Verbindung zwischen den Rechnern, um sie genau so einzu­we­ben wie das Telefon ins Fern­mel­denetz. Die Telekom­gesellschaf­ten verhin­der­ten jedoch mit ihren hohen Preisen für Datenübertragung den Aufbau eines solchen Net­work‑Computings. IBM mußte des­halb in das Tele­kom­muni­ka­tions­ge­schäft eindringen, was sie auch ‑ zumindest in den USA ‑ Mitte der siebziger Jahre mit dem Aufbau der Satellite Business Systems tat. Aber es war nur ein halbherziger Versuch.
Um ihre Idee zum Durch­bruch zu bringen, hätte sie es ‑ wie bei der /360 ‑ in einem welt­weiten Maßstab wagen müssen und dabei nicht nur die Datenkommunikation, sondern auch den Sprachverkehr anvisieren müssen. Doch sie traute sich nicht, die Fernmel­de­ge­sell­schaften mit ihren staatlich garantierten Monopolrechten herauszufordern. Die Te­le­­koms ge­hörten au­ßerdem zu ihren größten Kunden. Einen derar­ti­gen An­griff durch die mächtigste Computerfirma der Welt auf ihre wich­tig­sten Geld­quel­­len hätten die Regie­rungen nie zugelassen. So muss­te sich das Network Computing auf eine andere, klammheimliche und höchst anonyme Weise durchsetzen ‑ durch das In­ter­net. Es leg­te eine ganz andere Spur. Es tat das, wogegen letztlich jeder Staat machtlos ist: es plante sich plötzlich selbst. Anarchisch, chao­tisch, spontan.
Diese Methode war sowohl der IBM als auch ihren staat­lichen Wi­der­sachern fremd, obwohl 1961 der Klimaforscher Edward Lorenz die Chaostheorie an einem Computermodell des Wetters bereits ex­em­pli­fiziert hatte. Und hätte Big Blue in ihre eigene Ge­schich­te hineingeschaut, dann hätte sie gesehen, dass bei aller kol­lektiven Ge­nialität der Technologen und der Marketiers der Erfolg nur bis zu einem bestimmten Zeitpunkt planbar ist. Irgendwann ge­winnt der Erfolg den Erfolg aus sich selbst. Er managt sich von al­lein.
Auf je­den Fall hat­ten Big Blues Tech­no­strategen Mitte der siebziger Jahre den nächsten großen Schritt voll im Visier. Aber er wurde ab­ge­würgt. Das Mana­ge­ment des Multis zog nicht mit. Es hatte sich dem Co­dex des späten 20. Jahrhunderts verpflichtet: es wollte über­all als good citizen gel­ten, als bra­ver, biede­rer und an­ge­passter Bür­­ger. Der Ölpreisschock von 1973, der die ganze Welt überraschte und auf die Grenzen des Wachstums hinwies, hatte die revolutionären Kräf­te erlahmen lassen. Es herrschte Restauration.
Watsons Nachfolger Frank T. Ca­ry dachte nur noch in busi­ness ca­ses, in klei­nen über­schau­ba­ren Projekten, die einen schnellen Return on In­vest­ment brach­ten. Das war die neue po­litical cor­rectness, der alle IBMer treublau folgten. An mil­liar­den­schwe­ren, langwie­ri­gen und ris­kan­­ten Projekten war Cary nicht interessiert. Er war kein Watson, der ak­zeptieren konnte, dass Tech­no­logen mitunter intelligenter sind als Manager. Watson wuss­te, wie man mit Primadonnas umging und Zauderer »mutiviert«. Cary & Co. hingegen haben die Superstars entweder vergrault oder ein­fach in Labors ver­kümmern lassen. Die IBM der kleinen Schritte war ge­bo­ren.
Der brain drain, der zu­vor in Richtung Big Blue gezogen war, wech­sel­te zu den Wettbewer­bern. IBM verlor in der Folge ihren Rhythmus, der sie so groß und mäch­tig hatte werden las­sen.
Ohne natürliche Autorität. Sowohl Watson I. als auch Watson II. ha­ben jeweils eine Latenzzeit von zehn Jahren benötigt, bevor sie ih­re ganze un­ternehmerische Stär­­ke ausspielten. Beim Senior war es die Phase von 1914 bis 1924 gewesen. Beim Junior war es der Zeit­raum von 1946 bis 1956 gewe­sen. In dieser Zeit waren beide nach au­ßen hin eher unauffällig ge­we­sen. Sie hatten sich internen Her­aus­­forderungen gestellt wie der Kon­zen­­tration auf das Tabel­lier­ma­schi­nengeschäft (Watson Sen.) in den zwan­ziger Jahren oder der Um­stel­lung auf die Elektronik (Watson Jun.) in den fünfziger Jah­ren.
Dann aber hatten sie aufgedreht und ihre aus der internen Transfor­mation gewonnene Power voll auf den Markt gerichtet. Mitte der siebziger Jahre hätte IBM eben­­falls an den Aufbau einer solchen neuen Au­­to­ri­tät denken müs­sen. Und in der Tat wurde sie Mitte der acht­ziger Jah­re in der Per­son von John Akers sichtbar. 1985 wurde er Chief Exe­cu­tive, ein Jahr später ihr Chairman. Aber er war ein va­ter­loser Watson, eine Kopfgeburt. Kein Un­ter­nehmer vom Schlage des extra­va­ganten Char­les Flint oder des patriarchalischen Watson Se­nior stand wäh­rend der Aufbau­zeit hin­ter ihm. So konnte Akers Mitte der sieb­ziger Jahre nicht die nächste Transformation der Com­pany ein­leiten,
- die sich mental auf den Service‑Gedanken hätte zu­rück­be­sinnen und
- tech­nologisch voll auf die vernetzte Welt kon­zen­trieren müssen.
Das sind die beiden Punkte, die heute, in der Ära von Lou Gerst­­ner den Aktienkurs der IBM wieder explodieren lassen. Aber im Prin­zip knüpft die Firma heute da an, wo sie bereits 1985 hätte sein müs­sen. Nicht, daß ihre Ex‑Partner Intel und Micro­soft in der Börsenkapitalisierung an Big Blue vorbei­ge­schossen sind, hat sich die Gesellschaft vorzuwerfen, sondern dass sie ihre eigene revolutionäre Ge­schich­te nicht weiter geschrieben hat.
Die alte IBM stümperte nur herum und dach­te in Produkten und Pro­duktion, in Ziegel und Mörtel ‑ und Akers trat nicht gegen das herrschende Weltbild an, was die Watsons beide getan haben. Natürlich hatte Akers einen guten Grund: er wäre sonst nie­mals Chef der Company geworden.
Akers war das Kind von Mother Blue, das sich in den sieb­zi­ger Jah­ren zu einem zutiefst selbstbezüglichen System entwickelte und da­bei Trends verpennte ‑ wie zum Beispiel das Aufkommen der Minis. Das System IBM woll­te sich evolutionär allein Richtung und Ziel sein wollte, ohne dabei noch etwas zu riskieren. Akers lehnte sich erst als Chairman dagegen auf ‑ und scheiterte. Ihm wurde schließ­lich die Auto­ri­tät entzogen.
Alles aus dem Nichts. Ein Nachfolger wird daran gemessen, ob er der Vater oder das Kind einer unternehmerischen Revolution ist. Die bei­­den Wat­sons haben ihrer Zeit den Stempel aufgedrückt. Der Senior war Loch­karte, der Junior war Elektronik. Die nächste Phase wäre Tele­kom­munikation gewesen, der Vorstoß in den Cyberspace. Aber jede Phase schafft sich auch ihre eigenen Bedingungen. Sie ver­langt den radikalen Bruch mit dem Bestehenden. Sie braucht eine Stunde Null, den Start aus dem Nichts. Und jeder Unternehmensführer muß dazu die Chance erhalten. Er muß seine eigene Autorität durchsetzen ‑ und zwar nicht erst dann, wenn er an der Spitze steht.
Watson erntete mit der /360 die Erfolge, die er in den frü­hen fünf­ziger Jahren mit dem Umstieg in die Elektronik gesät hatte. Des­we­gen gelang ihm die Einführung dieser Com­puter der dritten Ge­ne­ra­tion. So formuliert der Ex‑IBMer Hart: »Mit dem Schritt zur /360 und weg von dem, was IBM bislang hatte, setzte die Firma bei­nahe ihre Existenz aufs Spiel. Und mit dem Versuch, auf einen Schlag eine neue Architektur, neue Software und neue Tech­­no­lo­gie zu kreieren, hatte IBM wie niemals wieder in ihrer Ge­schich­te alles ris­­­kiert.«[6] Sie konnte es aber wagen, weil sich die Stunde Null bereits früher er­eignet hatte. Die alte IBM hat­te 1956 im Rahmen eines Anti­trust‑Ver­­fah­rens ver­sprochen, al­­le Pa­ten­te, die sie hielt und ihr bis 1961 noch zu­ge­­sprochen wer­den wür­den, gegen eine geringe Gebühr an die Wett­be­­wer­ber abzu­ge­ben.
Das war ein gefährliches Spiel, wie Wat­son Jun. aus der Geschichte der Firma sehr ge­nau wusste.
POP‑Art. Sein Vater hatte 1949 der Bri­tish Ta­bu­lating Machines Co. (BTC) die Ex­klu­sivrechte für die Herstel­lung und Vermarktung von IBM‑Pro­duk­ten sowie die Nutzung von Pa­tenten erteilt ‑ mit dem Ergeb­nis, dass Big Blue selbst in den Ländern des britischen Common­wealth nur auf Platz 2 rangierte.
Im Vereinigten Königreich, in Australien, in Neu­­­seeland, Indien, Pakistan und Südafrika musste IBM gegen sich selbst kon­kur­rieren. Die Umsätze waren entsprechend mager. Schlim­mer noch: nur unter der Bedingung, dass 38 Prozent des Aktienkapi­tals in bri­ti­­sche Hände überging, hatte IBM überhaupt auf der Insel eine ei­ge­ne Ge­sell­schaft gründen dürfen. Für 28 Millionen Dollar hat­te dann 1959 Sohn Wat­son die Anteile zu­rück­ er­wer­ben lassen.[7]
Jeder wollte IBMs Patente ‑ die Japa­ner hatten der Gesellschaft En­de der fünfziger Jahre besonders hart zugesetzt. Sie sahen sich beim Aufbau einer eigenen Computerindustrie hoffnungslos im Rück­stand. Also wollten sie IBM mit staatlichem Druck zum Know‑how‑Trans­­fer zwingen. Doch die Firma blieb standhaft. Watson hatte sich allerdings auch in anderen Ländern nur mit dem Ver­spre­chen aus der Affäre ziehen kön­nen, daß IBM ihre Gewinne in den je­wei­ligen Märkten in den Aufbau von lokalen Fertigungs­stätten hin­ein­stecken würde.
Der Nationalstaat begann, seine Arbeitsplätze zu schützen. Wie aber sollte IBM die­sem Anspruch gerecht werden?
[1] Fortune, 11/60, Robert Sheehan: »Q: What grows fa­ster than I.B.M? A. I.B.M. Abroad«
[2] Computer­world, 4.6.90, Glenn Rifkin: »The price of beeing Watson Jr.«
[3] Kurt Blauhorn, Gü­tersloh 1970: »Erdteil zweiter Klasse? ‑ Eu­ro­pas technologische Lücke«
[4] Elec­tronics, 14.4.80, »Special Com­me­mo­rative Issue«
[5] Frank­fur­ter Allgemeine Zei­tung, 28.4.94: »War Oppenheimer ein Spion?«
[6] Computerworld, 3.11.1986, James Con­nol­ly/Jef­frey Bee­ler: »The price of success: IBM /370 system won`t die«
[7] For­­tune, 11/60, Robert Shee­han: »Q: What grows faster than I.B.M? A. I.B.M. Abroad«