Montag, 10. Oktober 2011

Pressemitteilung: USU Valuemation 4.2

Neues Modul Release Management sowie Software-Verteilung von baramundi angebunden

USU präsentiert neues Release Valuemation 4.2


Möglingen, 7. Oktober 2011.

An der Schnittstelle zwischen Business und IT konzentriert sich die
USU AG mit ihrem Software- und Beratungsportfolio seit Jahren auf das Kompetenzthema wissensbasiertes Servicemanagement. So wartet das neue Software-Release 4.2 mit einigen Neuerungen auf, die Anwender im Bereich IT-Servicemanagement zielorientiert in ihren Aufgabenbereichen unterstützen: Der Business Process Modeler ist ein Werkzeug zur grafischen Unterstützung bei der Modellierung von Prozessen. Das neue Modul Valuemation Release Manager ergänzt die Suite um einen weiteren ITIL
®-basierten Prozess. Und durch die Partnerschaft mit dem Technologie-Partner baramundi bietet Valuemation eine integrierte Lösung für Software-Verteilung. Des Weiteren steht neben dem bestehenden ITIL-v2-Prozess für das Problem Management nun optional auch ein entsprechender Prozess nach ITIL v3 zur Verfügung.

Zusätzliche Sprachversionen wie Französisch, Chinesisch und Arabisch sowie eine noch stärker rollenbasierte Benutzeroberfläche, Barrierefreiheit und Funktionalitäts-Erweiterungen in bestehenden Modulen komplettieren die Neuerungen. Valuemation 4.2 ist für Kunden und Interessenten ab sofort verfügbar.

Softwareänderungen koordiniert durchführen

Das Release Management verantwortet als zentrale Instanz die Überführung von Software-Releases in die Produktion und ist gemäß ITIL ein wichtiger Teil des IT-Service-Managements. Das neue Valuemation-Modul Release Manager unterstützt bei der Planung und Erstellung des Releases bis zur Freigabe für den Produktivbetrieb in Abstimmung mit dem Change- sowie dem Configuration-Manager. Durch begleitende Risikoanalysen werden die Risiken der Unterbrechung von Geschäftsprozessen bei Softwareänderungen minimiert. Grundlage für alle Prozess-Modellierungen in Valuemation ist der internationale Standard „Business Process Model and Notation“ (BPMN) in der neusten Version 2.0. Für einen effektiven Softwareverteilungs- und Rolloutprozess sorgt zusätzlich das Software Deployment durch zentral gesteuerte und automatisierte Installation, Konfiguration und Wartung von Betriebssystemen und Applikationen. Dieser Baustein basiert auf der Management Suite des Technologiepartners baramundi software AG.

Mehr Datenqualität & Übersicht

Ein neues Funktionspaket zur Datenqualität stellt die Integrität der verwalteten Assets sicher. Der sog. Data Quality Manager gibt Verantwortlichen die Möglichkeit, die Datenqualität zu definieren und zu überwachen. Sobald definierte Standards unterschritten werden, z.B. wenn Zuordnungen zu ungültigen Kostenstellen bestehen oder definierte Kategorien nicht zum Einsatz kommen, erfolgt eine Benachrichtigung. Für mehr Übersicht in der IT-Infrastruktur sorgt die neue Baseline-Funktionalität. Sie erlaubt es, verschiedene historische Datenbestände der CMDB als Messbasis
(= Baseline) zu definieren und diese miteinander, mit dem aktuellen Datenbestand oder mit dem technischen Bestand der Discovery-Daten zu vergleichen. Regelbasiert lassen sich zu den Abweichungen spezifische Aktionen hinterlegen, z.B. das automatisierte Erstellen und Zuweisen eines Request for Change (RfC).

Service-Reporting & mehr

Im Bereich der Module für Service Economics wurden viele Funktionen überarbeitet und erweitert. Hervorzuheben ist dabei die Einrichtung so genannter Welcome-Pages für zentrale Rollen wie Service Portfolio Manager, Planning & Calculation Manager oder Service Level Manager. Diese bieten bereits beim Systemeinstieg individuelle, rollenbasierte Informationen, Sichten und Aufgaben. Stark überarbeitet wurde der Planning & Calculation Manager: Neben ergonomischen Verbesserungen wurden insbesondere die Analysemöglichkeiten und das Berichtswesen wesentlich erweitert. Fachliche Dashboards, z.B. die Sicht auf einzelne Planungsstände, wurden auf Basis der ARIS MashZone aufgebaut. Ergänzt werden sie durch Quality Assurance Dashboards.

Service-Management aus einem Guss

Valuemation ist eine hoch integrierte Suite für das IT- und Service-Management und fokussiert auf vier zentrale Themenfelder: Service Economics, Service Asset Lifecycle Management, Service Operations und Service Monitoring. Das Release 4.2 steht seit Anfang Oktober 2011 zur Verfügung. Unternehmen, die sich an ITIL® orientieren, profitieren von der umfassenden Konformität mit den ITIL Best Practices. Weitere Informationen sind erhältlich unter: http://www.valuemation.de.

Sonntag, 2. Oktober 2011

Der Jahrhundert-Sprung (Teil X)

Von Raimund Vollmer

10. Vom Weltall in den Cyberspace

Wer hilft uns, den hier vor zehn Jahren formulierte Serienteil über P2P zu aktualisieren? Wer weiß, wie es heute steht beim P2P? Email an: bildertanz@aol.com

Eine der berühmtesten Peer-to-Peer-Anwendungen ist bis heute seti@home. Mehr als 2,5 Millionen PCs hatten sich hier vor zehn Jahren zusammengeschlossen, eine Zahl, die seitdem stagniert. Dieses Konglomerat bildete mit seiner potentiellen Leistung von 10.000 Milliarden Operationen pro Sekunde bereits vor einem Jahrzehnt die größte Konzentration an Computerpower in der Welt. Es war damals zehnmal schneller als der bis dahin mächtigste Supercomputer. Mehr als 345.000 Jahre Computerzeit waren hier versammelt.[1] Geradezu überirdische Ziele verfolgt dieses digitale Kollektiv: die gemeinsame Erforschung des Universums nach Radio-Signalen, die von außerirdischer Intelligenz gesendet werden.

Die Idee hinter diesem im Frühjahr 1999 gestarteten Projekt: Wer will, kann aus dem Netz bei seti@home einen ganz besonderen Bildschirmschoner herunterladen. In den Rechenpausen schaltet sich dann dieser Screen-Saver ein, der Daten verarbeitet, die vom Arecibo Observatorium in Puerto Rico stammen. Dieses gewaltige Radiotelescop, durch das permanent 1,4 Milliarden Daten an Weltraum-Rauschen strömen, wäre überfordert, diese Signale danach zu durchforsten, ob sich unter ihnen Nachrichten von Aliens befinden. Diese Suche übernehmen die 2,5 Millionen angeschlossenen PCs in ihrer Freizeit.

Was aus lauter Idealismus geboren wurde, so die Hoffnung damals, könnte sich in den kommenden Jahren zu einer innovativen Geschäftsidee auswachsen, bei der PC-Benutzer dafür entlohnt werden, dass sie ihre Maschinenzeit der Wirtschaft zur Verfügung stellen. So war die Idee damals - ein Cloud-Kollektiv, das aus PCs statt aus Servern bestand. Es galt als ein weiteres Beispiel dafür, wie Konsumenten zu Produzenten werden konnten. Natürlich waren dazu mehrere Herausforderungen zu meistern.

· Erstens mussten die Anwendungen, die diese Maschinen nutzen wollen, auf möglichst vielen Rechnern unterschiedlichen Typs lauffähig sein.

· Zweitens waren Sicherheitsanforderungen zu erfüllen. Nicht jedes Unternehmen möchte so ohne weiteres sensible Anwendungen einem anonymen Computerheer anvertrauen.

· Drittens galt es, Aufgaben zu finden, die sich auch tatsächlich auf Tausende von Maschinen verteilen ließen.

Doch es gab durchaus Ansätze, mit denen diese Hindernisse überwunden werden konnten. Das Unternehmen Parabon Computation aus Fairfax in Virginia entwickelte seine P2P-Software in der Programmiersprache Java, die hochgradig rechnerunabhängig war. Zudem verschlüsselte sie den gesamten Netzwerkverkehr. Und jeder Computer im P2P-Konzert bekam nur wenige Daten zur Verarbeitung. Außerdem konzentrierte sich Parabon auf Anwendungen, die sich recht einfach verteilen lassen: so zum Beispiel auf Berechnungen von Finanzmodellen oder im Bereich der Biotechnologie.

Der Anbieter Distributed Science in Toronto hatte sogar schon 40.000 freiwillige Helfer hinter sich versammelt. Die Firma entwickelt Software, um die Eigenschaften von Atommüllbehältern zu simulieren.[2] Der Chipgigant Intel nutzte zwischenzeitlich 10.000 PCs, um über sie sein hochsensibles Geschäft der Halbleiterentwicklung zu verteilen. Mehr als 500 Millionen Dollar soll die Chipschmiede damit gespart haben. Wie es heute mit dem Projekt aussieht, nicht bekannt. Intel arbeitet aber wohl weiterhin an P2P.

Eine der Anwendungen, die den Konsumenten selbst am meisten dienen würde, war die Nutzung der freien Rechenkapazitäten für Suchmaschinen. Rund einen Monat Zeit benötigten nämlich vor zehn Jahren die Googles der Welt, um alle Websites abzutasten und zu überprüfen, ob sie überhaupt noch existent und ihre Links up-to-date seinen. Würde man diese Aufgabe auf Tausende von PCs transferieren, dann könnten diese von sich aus den Bericht zur Lage der Cyber-Nation zusammenstellen und Veränderungen an die Zentrale melden. So die Idee damals.

Zwei Anbieter Gnutella und FreeNet wollten P2P um marktfähige Produkte anreichern. So wollte GoneSilent (offensichtlich nicht mehr existent) auf der Basis von Gnutella eine Technologie anbieten, mit denen Benutzer über das Netz nach Informationen suchen können, die auf anderen PCs liegen. Mit ihrem Uprizer wollte Freenet es ihren Kunden leichter machen, Dateien einfacher über das Netz zu verteilen. Die Idee dahinter: Je populärer ein Dokument sei, desto mehr Kopien werde es davon im Netz geben, so dass leichter darauf zugegriffen werden kann.

Intels damaliger Chairman Andy Grove war begeistert von diesen Konzepten. Denn es brachte den PC zurück ins Spiel. Er glaubte nämlich, dass darüber das Bandbreiten-Problem sehr viel eleganter gelöst werden könne als mit den Milliarden der Telekoms in Backbone-Netze. Statt über sie Datenmengen von einem Ende der Welt zum anderen zu jagen, würden ihre Inhalte nur noch zentral registriert und dezentral in unzähligen Kopien verteilt. Wer eine Information suche, würde dann zu dem nächstgelegenen Standort weitergeleitet. »Meine Sorge geht dahin, dass wir eine neue Netzwerk-Infrastruktur, die uns 80 Milliarden Dollar im Jahr kosten wird, ausgerechnet zu dem Zeitpunkt errichten, in dem die Auslastung des Netzes mehr in Richtung Peer-to-Peer geht.« Anstatt dass nun die Datenmengen über Breitbandleitungen an die Server im Netz verteilt würden, auf die dann die Verbraucher über ihre Schmalbandnetze zugriffen, würden nun schnelle Netze zwischen den PCs »in der Menge« benötigt. Schon sah er ganz ordinäre PCs als Knoten im Netz. Was für dieses Modell sprach, war die Chance, dass es nicht in einer generalstabsmäßig aufgebauten, großflächigen Initiative aufgebaut werden sollte, sondern gleichsam von unten wuchs: zum Beispiel durch das Verschmelzen von lokalen Netzen.[3]

Die PCs würden nicht nur die kleinen Helfer der Suchmaschinen werden, sondern selbst Träger von Inhalten. Ein äußerst engmaschiges Netz würde entstehen, das alles, was bisher im Internet galt, auf den Kopf stellt. Jeder wäre dann eine Suchmaschine. Und jeder wäre Anbieter von Inhalten. Gewinnen wird der, der die besten Fragetechniken besitzt und unterstützt.

Natürlich steht und fällt dieses Konzept damit, dass die Register auch permanent up-to-date sind. »Das Internet leistet zwei Dinge: Es speichert Daten, und es bewegt Daten«, meinte David Peterschmidt, Chief Executive der Suchmaschine Inktomi. »Das Problem besteht darin, dass die Daten überall auf der Welt gespeichert sind. Es ist unglaublich schwierig, herauszufinden, wo sich gerade das Gesuchte befindet.«[4]

Der IDC-Analyst John Gantz sah gerade in dieser »Suche über viele inaktive PCs« ein wichtiges Betätigungsfeld für P2P.[5] Dies geschähe vor dem Hintergrund, dass Always Online – ermöglicht durch die Einführung von DSL und Flat Rate – der Standard werde für Abermillionen von Usern weltweit. Das eine sorge für mehr Geschwindigkeit bei besserer Ausnutzung der in den vergangenen Jahrzehnten verlegten Kupferkabel, das andere dafür, dass der Faktor Zeit für die Benutzer keine Rolle mehr spielen würde.

Anfang des Jahrhunderts gab es bereits mehr als 60 P2P-Initiativen weltweit. Und sie hatten alle eins im Sinn: Wenn sich ihre Ideen auch nur halbwegs verwirklichen ließen, dann wäre dies nach Meinung des britischen Wirtschaftsmagazins The Economist der »Todesstoß für traditionelle Strukturen. Wenn [die Anbieter] richtig liegen, dann wird eines Tages der größte Anteil an Wissensarbeit von Teams erledigt werden, die sich dann über P2P bilden, wenn sie gebraucht werden, und dann auseinander gehen, wenn das Projekt beendet ist.« [6] So ändere sich nicht nur die Struktur des Netzes, sondern auch die Arbeitsweise der Menschen. Nicht mehr an große Organisationen bänden sie sich ein Leben lang, sondern nur noch an das Netz.

Quellen

[1] The Economist, 29.7.2000: »Divide and conquer«

[2] The Economist, 29.7.2000: »Divide and conquer«

[3] Fortune, 29.5.2000: »Napster is Clouding Grove´s crystal ball«

[4] Financial Times, 29.5.2000, Peter Thai Larsen:»A digital Rosetta stone«

[5] Computerworld, November 20, 2000, John Gantz: »Jump on the P2P bandwagon«

[6] The Economist, 4.11.2000: »Peer-to-peer pressure«