Von Raimund Vollmer
10. Vom Weltall in den Cyberspace
Wer hilft uns, den hier vor zehn Jahren formulierte Serienteil über P2P zu aktualisieren? Wer weiß, wie es heute steht beim P2P? Email an: bildertanz@aol.com
Eine der berühmtesten Peer-to-Peer-Anwendungen ist bis heute seti@home. Mehr als 2,5 Millionen PCs hatten sich hier vor zehn Jahren zusammengeschlossen, eine Zahl, die seitdem stagniert. Dieses Konglomerat bildete mit seiner potentiellen Leistung von 10.000 Milliarden Operationen pro Sekunde bereits vor einem Jahrzehnt die größte Konzentration an Computerpower in der Welt. Es war damals zehnmal schneller als der bis dahin mächtigste Supercomputer. Mehr als 345.000 Jahre Computerzeit waren hier versammelt.[1] Geradezu überirdische Ziele verfolgt dieses digitale Kollektiv: die gemeinsame Erforschung des Universums nach Radio-Signalen, die von außerirdischer Intelligenz gesendet werden.
Die Idee hinter diesem im Frühjahr 1999 gestarteten Projekt: Wer will, kann aus dem Netz bei seti@home einen ganz besonderen Bildschirmschoner herunterladen. In den Rechenpausen schaltet sich dann dieser Screen-Saver ein, der Daten verarbeitet, die vom Arecibo Observatorium in Puerto Rico stammen. Dieses gewaltige Radiotelescop, durch das permanent 1,4 Milliarden Daten an Weltraum-Rauschen strömen, wäre überfordert, diese Signale danach zu durchforsten, ob sich unter ihnen Nachrichten von Aliens befinden. Diese Suche übernehmen die 2,5 Millionen angeschlossenen PCs in ihrer Freizeit.
Was aus lauter Idealismus geboren wurde, so die Hoffnung damals, könnte sich in den kommenden Jahren zu einer innovativen Geschäftsidee auswachsen, bei der PC-Benutzer dafür entlohnt werden, dass sie ihre Maschinenzeit der Wirtschaft zur Verfügung stellen. So war die Idee damals - ein Cloud-Kollektiv, das aus PCs statt aus Servern bestand. Es galt als ein weiteres Beispiel dafür, wie Konsumenten zu Produzenten werden konnten. Natürlich waren dazu mehrere Herausforderungen zu meistern.
· Erstens mussten die Anwendungen, die diese Maschinen nutzen wollen, auf möglichst vielen Rechnern unterschiedlichen Typs lauffähig sein.
· Zweitens waren Sicherheitsanforderungen zu erfüllen. Nicht jedes Unternehmen möchte so ohne weiteres sensible Anwendungen einem anonymen Computerheer anvertrauen.
· Drittens galt es, Aufgaben zu finden, die sich auch tatsächlich auf Tausende von Maschinen verteilen ließen.
Doch es gab durchaus Ansätze, mit denen diese Hindernisse überwunden werden konnten. Das Unternehmen Parabon Computation aus Fairfax in Virginia entwickelte seine P2P-Software in der Programmiersprache Java, die hochgradig rechnerunabhängig war. Zudem verschlüsselte sie den gesamten Netzwerkverkehr. Und jeder Computer im P2P-Konzert bekam nur wenige Daten zur Verarbeitung. Außerdem konzentrierte sich Parabon auf Anwendungen, die sich recht einfach verteilen lassen: so zum Beispiel auf Berechnungen von Finanzmodellen oder im Bereich der Biotechnologie.
Der Anbieter Distributed Science in Toronto hatte sogar schon 40.000 freiwillige Helfer hinter sich versammelt. Die Firma entwickelt Software, um die Eigenschaften von Atommüllbehältern zu simulieren.[2] Der Chipgigant Intel nutzte zwischenzeitlich 10.000 PCs, um über sie sein hochsensibles Geschäft der Halbleiterentwicklung zu verteilen. Mehr als 500 Millionen Dollar soll die Chipschmiede damit gespart haben. Wie es heute mit dem Projekt aussieht, nicht bekannt. Intel arbeitet aber wohl weiterhin an P2P.
Eine der Anwendungen, die den Konsumenten selbst am meisten dienen würde, war die Nutzung der freien Rechenkapazitäten für Suchmaschinen. Rund einen Monat Zeit benötigten nämlich vor zehn Jahren die Googles der Welt, um alle Websites abzutasten und zu überprüfen, ob sie überhaupt noch existent und ihre Links up-to-date seinen. Würde man diese Aufgabe auf Tausende von PCs transferieren, dann könnten diese von sich aus den Bericht zur Lage der Cyber-Nation zusammenstellen und Veränderungen an die Zentrale melden. So die Idee damals.
Zwei Anbieter Gnutella und FreeNet wollten P2P um marktfähige Produkte anreichern. So wollte GoneSilent (offensichtlich nicht mehr existent) auf der Basis von Gnutella eine Technologie anbieten, mit denen Benutzer über das Netz nach Informationen suchen können, die auf anderen PCs liegen. Mit ihrem Uprizer wollte Freenet es ihren Kunden leichter machen, Dateien einfacher über das Netz zu verteilen. Die Idee dahinter: Je populärer ein Dokument sei, desto mehr Kopien werde es davon im Netz geben, so dass leichter darauf zugegriffen werden kann.
Intels damaliger Chairman Andy Grove war begeistert von diesen Konzepten. Denn es brachte den PC zurück ins Spiel. Er glaubte nämlich, dass darüber das Bandbreiten-Problem sehr viel eleganter gelöst werden könne als mit den Milliarden der Telekoms in Backbone-Netze. Statt über sie Datenmengen von einem Ende der Welt zum anderen zu jagen, würden ihre Inhalte nur noch zentral registriert und dezentral in unzähligen Kopien verteilt. Wer eine Information suche, würde dann zu dem nächstgelegenen Standort weitergeleitet. »Meine Sorge geht dahin, dass wir eine neue Netzwerk-Infrastruktur, die uns 80 Milliarden Dollar im Jahr kosten wird, ausgerechnet zu dem Zeitpunkt errichten, in dem die Auslastung des Netzes mehr in Richtung Peer-to-Peer geht.« Anstatt dass nun die Datenmengen über Breitbandleitungen an die Server im Netz verteilt würden, auf die dann die Verbraucher über ihre Schmalbandnetze zugriffen, würden nun schnelle Netze zwischen den PCs »in der Menge« benötigt. Schon sah er ganz ordinäre PCs als Knoten im Netz. Was für dieses Modell sprach, war die Chance, dass es nicht in einer generalstabsmäßig aufgebauten, großflächigen Initiative aufgebaut werden sollte, sondern gleichsam von unten wuchs: zum Beispiel durch das Verschmelzen von lokalen Netzen.[3]
Die PCs würden nicht nur die kleinen Helfer der Suchmaschinen werden, sondern selbst Träger von Inhalten. Ein äußerst engmaschiges Netz würde entstehen, das alles, was bisher im Internet galt, auf den Kopf stellt. Jeder wäre dann eine Suchmaschine. Und jeder wäre Anbieter von Inhalten. Gewinnen wird der, der die besten Fragetechniken besitzt und unterstützt.
Natürlich steht und fällt dieses Konzept damit, dass die Register auch permanent up-to-date sind. »Das Internet leistet zwei Dinge: Es speichert Daten, und es bewegt Daten«, meinte David Peterschmidt, Chief Executive der Suchmaschine Inktomi. »Das Problem besteht darin, dass die Daten überall auf der Welt gespeichert sind. Es ist unglaublich schwierig, herauszufinden, wo sich gerade das Gesuchte befindet.«[4]
Der IDC-Analyst John Gantz sah gerade in dieser »Suche über viele inaktive PCs« ein wichtiges Betätigungsfeld für P2P.[5] Dies geschähe vor dem Hintergrund, dass Always Online – ermöglicht durch die Einführung von DSL und Flat Rate – der Standard werde für Abermillionen von Usern weltweit. Das eine sorge für mehr Geschwindigkeit bei besserer Ausnutzung der in den vergangenen Jahrzehnten verlegten Kupferkabel, das andere dafür, dass der Faktor Zeit für die Benutzer keine Rolle mehr spielen würde.
Anfang des Jahrhunderts gab es bereits mehr als 60 P2P-Initiativen weltweit. Und sie hatten alle eins im Sinn: Wenn sich ihre Ideen auch nur halbwegs verwirklichen ließen, dann wäre dies nach Meinung des britischen Wirtschaftsmagazins The Economist der »Todesstoß für traditionelle Strukturen. Wenn [die Anbieter] richtig liegen, dann wird eines Tages der größte Anteil an Wissensarbeit von Teams erledigt werden, die sich dann über P2P bilden, wenn sie gebraucht werden, und dann auseinander gehen, wenn das Projekt beendet ist.« [6] So ändere sich nicht nur die Struktur des Netzes, sondern auch die Arbeitsweise der Menschen. Nicht mehr an große Organisationen bänden sie sich ein Leben lang, sondern nur noch an das Netz.
[1] The Economist, 29.7.2000: »Divide and conquer«
[2] The Economist, 29.7.2000: »Divide and conquer«
[3] Fortune, 29.5.2000: »Napster is Clouding Grove´s crystal ball«
[4] Financial Times, 29.5.2000, Peter Thai Larsen:»A digital Rosetta stone«
[5] Computerworld, November 20, 2000, John Gantz: »Jump on the P2P bandwagon«
[6] The Economist, 4.11.2000: »Peer-to-peer pressure«
Keine Kommentare:
Kommentar veröffentlichen