Freitag, 9. September 2011

Der Jahrhundert-Sprung (Teil II)

Von Raimund Vollmer

II. Wissensnetz oder Speichermonster

Das Internet galt als ein völlig neues Universum, dessen Ausmaße niemand so richtig beziffern konnte. Nur eins war sicher: Es war das größte Speichermonster in der Geschichte der Menschheit, das eines Tages das gesamte Wissen der Menschheit beherbergen und permanent auf dem aktuellsten Stand halten sollte.

»Wir werden Raketenwissenschaftler benötigen, um dieses Monster bändigen zu können«, befürchtete Dietmar Wendt, damals als Vice President verantwortlich für das Speichergeschäft der IBM in Europa, Mittleren Osten und Afrika. Das stelle die Menschheit vor eine paradoxe Situation: Einerseits hatte sie die Technologie, um das gesamte Wissen der Menschheit abzuspeichern, andererseits fehlte ihr aber das Wissen, um diese immensen Datenmengen zu beherrschen.

Doch Wendt war wie viele andere Führungskräfte der IT-Branche zuversichtlich, dass diese Klippe genommen werden würde. Als IBM nämlich 1956 mit dem ersten Plattensystem der Welt auf den Markt kam, »haben wir deshalb von unserer Ramac nur 1000 Exemplare verkauft, weil damals das Speichermanagement die Anwender schlichtweg überforderte.« Dabei betrug das Fassungsvermögen der Ramac gerade einmal fünf Megabyte. Heute reden wir über Terabytes und Exabytes. Wendt vor zehn Jahren: »Jeder PC-Benutzer kann allein mit einem einzigen Mausclick ein ganzes Gigabyte verschieben. Das war vor 1980 noch nicht einmal bei Mainframes möglich.« Zugleich sanken die Kosten dramatisch. 1980 kostete eine Gigabyte Plattenspeicher rund 80.000 Dollar, dafür bekam man nach Einschätzung von Forrester Research in 2003 bereits eine Terabyte Kapazität. Noch 1999 musste man dafür 300.000 Dollar bezahlen. Heute, 2011, kostet ein Terabyte weniger als 100 Dollar.

Doch was nützten diese Fortschritte bei Preis und Leistung, wenn nicht zugleich bei sinkenden Kosten die Übertragungsraten in den Netzen erheblich stiegen? Das war die Herausforderung des Jahres 2001. Damals gingen die Telekoms der Welt bei ihren Investitionen bis an ihr finanzielles Limit heran. Noch 1997 leihten sie sich 32 Milliarden Dollar an den Kapitalmärkten, im Jahr 2000 waren es 150 Milliarden Dollar. Das waren 20 Prozent aller syndizierten Anleihen.[1] Sie stressten mit ihrem Geldbedarf die Kapitalmärkte. Doch das meiste Geld ging drauf für den Erwerb der neuen, breitbandigen Mobilfunk-Lizenzen, flossen also gar nicht direkt in die Infrastruktur, sondern in die Staatssäckel. Zugleich standen die Fernmeldebetreiber mächtig unter Preis- und Innovationsdruck. Während sie früher damit rechnen konnten, dass sich ihre Investitionen im Laufe von 30 Jahren amortisierten, waren es jetzt nur noch zwei Jahre – und das bei fortschreitendem Preisverfall.

Konnte die Welt darauf warten, bis die Telekoms ihre Geschäftsmodelle endlich stabilisiert haben? Kaum. Meinte Andrew Grove, damals Chairman von Intel: »Der Versuch, den Konsumenten [durch Breitband-Netze] zu erreichen, ist nicht nur ein sehr teures, sondern auch ein technisch sehr schwieriges Unterfangen. In den Vereinigten Staaten liegt das Engagement in der Größenordnung von – und dies ist eine sehr illustrative Zahl – 100 Milliarden Dollar allein an Infrastruktur-Investment. Obgleich die Toleranz der Märkte gegenüber einer Investitionssumme von einer Milliarde Dollar, die auf absehbare Zeit keine höhere Erträge erwarten lässt, gestiegen ist, haben die Märkte noch nicht den Punkt erreicht, bei der sie auch Investitionen von 100 Milliarden tolerieren, die auf absehbare Zeit keine Erträge erwirtschaften.«[2] Nur durch massive Preiserhöhungen ließe sich ein Geschäftsmodell aufbauen, das sich für die Investoren und die Betreiber rechnet.

Deshalb konzentrierten sie sich auf den Aufbau mächtiger Backbone-Netze, über die viele Kopien von Daten möglichst nah an die Benutzer heran transferiert werden. Es war ein Top-Down-Ansatz, dem sich mit dem Peer-to-Peer-Computing ein Bottom-Up-Ansatz entgegenstellte. Aus der Sicht des Jahres 2011 sollte es dann das Cloud-Computing sein, das dieses Dilemma lösen soll - also eher der Top-Down-Ansatz?

Auf jeden Fall avancierte das Netz zu einem gewaltigen Verschiebebahnhof von Web-Inhalten. Und das musste sorgfältig orchestriert werden – bei steigendem Volumen. Die Schätzungen gingen von 2,5 Mil­liarden Web-Sites aus. Täglich kämen 7,3 Millionen hinzu. Dies vermutete jedenfalls eine Analyse der Berkley´s School of Information Management and Systems an der Universität von Kalifornien.[3] Dahinter standen etwa zehn Millionen Hosts. Heute sind es 485 Millionen, meldet der Netzanalyst Netcraft.

Ende 2000 seien bereits rund 550 Milliarden Dokumente online verfügbar.[4] Das überfordere schon jetzt die Suchmaschinen, hieß es. Das Suchportal Yahoo aus Santa Clara in Kalifornien, das vor zehn Jahren 263 Millionen registrierte Besucher zählte, beschäftigte allein 1000 seiner 3200 Mitarbeiter damit, die Websites nach Stichworten zu ordnen und zu indizieren.[5] Doch mehr als eine Milliarde Web-Sites könne auch diese Suchmaschine nicht managen. Derweil explodierte die Zahl der Dokumente, die von den Websites angeboten wurden, auch weiterhin. So könnte es bereits 2002 dreimal mehr Online-Dokumente geben: rund 1,5 Billionen, sagten die Propheten. Das sei ein Volumen, das zentral gar nicht mehr gemanagt werden könne. Ein neues Organisationskonzept muss her.

Welches gewaltige Momentum dahinterstand, machten die beiden Berkeley-Forscher Peter Lyman und Hal Varian deutlich. Jeder Mensch erweitere im Schnitt pro Jahr die elektronische Speichermenge um 250 Megabyte. Allein in 2001 werde die weltweite Speicherkapazität um zwei Milliarden Gigabytes steigen. Das seien zwei Exabytes extra. Und bis 2005 würden wir mehr Daten speichern als in der gesamten Geschichte der Menschheit.[6] Der überwiegende Teil dieser Daten werde über das Netz verfügbar sein.

Doch damit nicht genug: Diese Daten würden von den Benutzern nicht nur angezapft, sondern auch weiterverarbeitet. So baue sich jeder seinen eigenen Wissensschatz auf, der sehr schnell zweistellige Gigabyte-Dimensionen erreichen kann. Meinte Udo Strehl, damals Vorstandsvorsitzender der USU AG in Möglingen: »Die große Frage ist nur: Werden wir das, was wir im Netz suchen, auch finden – und zwar zu akzeptablen Preisen, schnellen Zugriffszeiten und mit dem erforderlichen Komfort? Vor allem aber: Wie werden die einzelnen Benutzer die gefundenen Ergebnisse selbst managen?« Das seien Fragen, die das Geschäftsmodell seiner Firma ganz besonders treffen. Denn sie beschäftige sich intensiv mit dem Thema Wissensmanagement. »Wir setzen alles dran, Abfragesysteme zu entwickeln, die den Benutzern den Umgang mit den Suchmaschinen erleichtern.« Die U.S.U. will für mehr Bequemlichkeit bei Suchanfragen sorgen. Doch was nützt dies, wenn der Benutzer zwar endlich die richtigen Fragen in Volltext stellen kann, aber das Netz »gar nicht mehr weiß, was es weiß, und mit seiner eigenen Komplexität nicht zu Rande kommt?« Strehls einzige Hoffnung: »Es müssen völlig neue Konzepte her.« Aber die kann man nur gewinnen, wenn man frische Ideen ausprobiert.



[1] Wall Street Journal, 26.1.2001, Michael R. Sesit: »In World of Lending Telecoms Stand Out Like Big Icebergs«

[2] Fortune, 29.5.2000: »Napster Is Clouding Frove´s Crystal Ball«

[3] De Welt, 1.11.2000, Thomas Heuzeroth: »Demokratied der Daten«

[4] Wall Street Journal, 16.11.2000, Jeremy Wagstaff: »No Time to Read This? Then You Really Should«

[5] The Economist, 3.2.2001: »Internet pioniers – We have lift-off«

[6] Computerworld, January 1. 2001: »IBM Takes SANs to Japan«

Keine Kommentare: