„Menschliche Wesen nehmen die Dinge nicht in ihrer Ganzheit wahr; wir sind keine Götter, sondern verwundete Kreaturen, zersprungene Linsen, nur zu gebrochener Wahrnehmung fähig".
Salman Rushdie, Dichter, aus: „Heimatländer der Phantasie"[1]
2.0 Die Zerschlagungstheorie
2.1 Konstruktionszeichnung der DV
Datensicht. Ja, ja ‑ vor zehn Jahren hätten ihn „noch
viele als Spinner" abgetan, schmunzelt Dr. Max Vetter,
Professor an der Eidgenössischen Technische Hochschule (ETH) in Zürich.
Nun würden sich sogar Vorstände mit dem ehedem als allzu extravagant
verschrienen Thema Datenmodellierung auseinandersetzen.
Nein, nein ‑ an der Relevanz von Datenmodellen könne heute
in der Tat keiner mehr zweifeln. Denn sie seien inzwischen „so etwas wie die
Konstruktionszeichnungen der Datenverarbeitung", greift Heinz Münzenberger,
bis Juni 1992 Hauptabteilungsleiter Daten und Verfahren bei der Deutschen
Lufthansa AG in Frankfurt, den Faden auf. (Heinz Münzenberger wurde geschäftsführender Gesellschafter des Softwarehauses GTI im
bergischen Kürten)
Ja, ja ‑ steigt Rudolf Corzilius, Datenbankexperte
bei der IBM Deutschland, ein: „Datenmodelle sind das einzige Mittel, um
das Datenchaos zu meistern. Sie gewähren allen Mitarbeitern, vom Vorstand bis
zum Sachbearbeiter, eine gemeinsame und einheitliche Sicht auf die Daten."
Endlich soll also die subjektive Sicht auf die Daten, wie
sie der einzelne Benutzer mit all seinen spontanen Ansprüchen hat, in
Übereinstimmung mit einer objektivierten und fundierten Sicht gebracht werden.
Denn die Divergenz beider Perspektiven ist die tiefe Ursache für das Chaos. Und
nur so, mit Hilfe der Datenmodelle, können alle Integrationsprobleme von grundauf
gelöst werden.
Empfehlungen. Gut, gut ‑ postuliert Helmut Rhefus,
Leiter des Bereichs Datenbankadministration Data Dictionary und
Datenmodellierung bei der Henkel KGaA in Düsseldorf: „Sofort damit
beginnen. Man kann frühzeitig die richtigen Dinge in die richtigen Bahnen lenken."
Und schon prasseln die Empfehlungen und Ratschläge auf den
IS‑Manager und seine Gemeinde hernieder.
„Mit der Unternehmensdatenmodellierung verbessern Sie die
Kommunikationskultur in Ihrem Unternehmen", rät Alfred Werra, Leiter „IS‑Methoden" bei der R+V Allgemeine Versicherung AG in Wiesbaden.
„Nichts tun ‑ das ist auf jeden Fall tödlich", warnt
gar der frühere MBB‑Manager Heinz Mistelbauer,
nunmehr verantwortlich für das Consulting Datenmanagement bei der CAP debis Integrierte Anwendungssysteme GmbH
in Riemerling bei München. „Mit dem Nutzen ist es wie mit den Zinsen.
Sie werden erst später erkennbar."
„Bester Ansatzpunkt für die Datenmodellierung sind neue
Projekte", setzt A. Schmidt, Prokurist im Bereich
Verkaufskoordination bei der Hoechst
AG in Frankfurt, auf den Trendbruch zwischen Alt und Neu.
- „Datenmodelle zeichnen sich vor allem durch ihre
Stabilität aus", weist Dr. Thomas
Brandhofe, Sachgebietsleiter in den Bereichen Programmiersysteme und
Datenbanksysteme bei der DG‑Bank
in Frankfurt, auf die Langlebigkeit dieser Investition hin.
- Datenmodellierung ist nicht nur eine Chance, sondern
schlichtweg eine Notwendigkeit", setzt Professor Bernd Breutmann, Leiter des Studiengangs Informatik an der Fachhochschule Würzburg‑Schweinfurt,
nach.
Über die ‑ fast schon therapeutische ‑ Bedeutung der
Datenmodellierung herrscht also allgemeine Einstimmigkeit. Sie ist die erste
Integrationsebene, über die eine neue Architektur entstehen und der Datensumpf
trockengelegt werden kann. Vor diesem Hintergrund hat IBM zum Beispiel für ihre
Kunden im Bereich Finanzdienstleistungen, mit denen sie rund zwölf Milliarden
Dollar pro Jahr weltweit umsetzt, die Financial
Application Architecture (FAA) entwickelt, die im April 1992 vorgestellt wurde.
Deren größtes Investment sind die Data Model Services, die nicht nur das Datenmodell, sondern auch
die darauf aufbauenden Anwendungen und Diensten für den unternehmensweiten
Einsatz adressieren. Kunden und Softwarehäuser können dieses Modell nutzen, um
nun bestehende und neue Anwendungen daran anzupassen und zu integrieren.[2]
2.2 Das Todesurteil für Programmierer
Revolutionsjahre. Die ganze Unternehmenswelt via
Datenverarbeitung zu strukturieren, das war indes schon vor drei Jahrzehnten
der große Anspruch gewesen, mit dem die Apologeten der Neuen Technik
aufmarschierten. Doch die Versuche scheiterten jedesmal, weil die
Grundlagenarbeit immer schnell in Funktionalismus umschlug. Das Ergebnis war
stets Chaos. Organisationschaos. Softwarechaos. Datenchaos ‑ dem „Jahrhundertproblem
der Informatik", wie es Vetter
nennt.
Schon Ende der sechziger Jahre wurde spürbar, dass die
genialen Entwürfe, mit denen die Datenverarbeitung die „reale Welt"
abbilden wollte, sich nicht erfüllen ließen. Immerhin wurde bereits 1968
während einer Nato‑Tagung in Garmisch‑Partenkirchen, an der auch Zivilisten
teilnahmen, die Softwarekrise ausgerufen, die bis heute nicht beigelegt
ist. (Siehe auch: „Welt der Objekte")
Doch damals konnten die Datenverarbeiter die Schuld für das
Versagen noch der alten, aus der Zeit vor der Computerisierung überlieferten
Ordnung in die Schuhe schieben, die sich der Steuerung durch die Neue Technik
widersetzte. So fragte 1970 einer der berühmtesten „Systemanalytiker" der
Welt, der Brite James Martin, in seinem mit Adrian R. Norman
erstellten Erstlingswerk Halbgott Computer: „Ist es wirklich
unvermeidlich, dass die revolutionäre neue Technologie zuerst die alten
Ordnungen zerschlägt und der Mensch erst dann versucht, das Chaos wieder zu
ordnen?"[3]
Die Revolution frißt ihre Kinder. Zehn Jahre später,
1980, war der Computer selbst zentraler Bestandteil dieser Ordnung geworden.
Doch etliche Entwürfe von gestern verstaubten entweder in Schubladen oder waren
nur in Rudimenten realisiert. Eines der Schlagworte, das damals aufkam und sich
nie erfüllte, war das so genannte Management Information System (MIS).
Der intellektuelle Angriff auf die reale Welt, der seinerzeit provozierend
angezettelt worden war, hatte damit erstmals nachhaltig die Glaubwürdigkeit derer
desavouiert, die Martins Hoffnung zufolge der durchprogrammierten Räson
zum Triumph über das Chaos verhelfen sollten: die Programmierer, die wahren
Kinder dieser Revolution.
Die Software‑Entwicklung fiel immer weiter hinter der realen
Welt zurück, die sie allzu mikroskopisch zerlegen und allzu makroskopisch in
ihren Systemen wieder zusammensetzen wollte. Fast schon hilflos erklärte
James Martin 1980 in einem Interview mit dem Autor: „Die einzige
Möglichkeit, die Programmier‑Produktivität zu steigern, besteht darin, die
Programmierer zu erschießen". Für Martin waren somit die
Revolutionäre an sich selbst gescheitert.
Aber die Programmierer überlebten Martins
Todesurteil. Die Welt war schon zu abhängig von ihnen geworden. Der PC kam und
vergrößerte das Heer um mindestens eine Million Codierknechte. Mit ihnen wuchs
das Chaos unüberwindlich. Mediokrität nistete sich überall ein.
Die großen Entwürfe, deren Durchführung zuvor noch an der
Hardware‑Technik gescheitert war, verarmten nun zu unzähligen isolierten
Einzelfunktionalitäten. Jede mochte für sich zwar eine zwingende Bedeutung
haben. Doch deren bloße Addition entbehrte jedes Sinnes. Es blieben gebrochene
Wahrnehmungen ‑ die der Benutzer und die der Systementwickler. Sie schufen
keine einheitliche, gemeinsame und unternehmensweite Sicht auf die Daten.
Und nun ‑ wieder gute zehn Jahre später ‑ tritt ein neuer „James
Martin" auf. Sein Nachname ist fast schon Programm. Er heißt Michael
Hammer. Er ist Präsident der Beratungsfirma Hammer & Co. in Cambridge
(Massachusetts) und ein gefeierter Star in den USA. Er fordert, dass
Unternehmen ihre Systeme „kurz und klein schlagen" oder gar „in die Luft
jagen" sollten. [4]
Nicht mehr den Programmierern geht es an den Kragen, sondern ihren Werken. Punctum.
Ein Mann wie Bernhard
Dorn zuckt da zusammen. „Wir müssen stattdessen die vorhandenen Systeme
integrieren", erklärt er. Dabei weiß er genau, dass das „alles nur ein
Kompromiß" ist. Es gibt eigentlich nur eine Chance. Ein Integrationspfad muss
geebnet werden, über den der Bestand in die neue Welt geleitet werden kann.
Dies ist das große Thema des Reengineering.
Bestätigt
Allianz‑Vorstand Hendricks: „Es ist vielleicht eines
der wichtigsten Themen der neunziger Jahre." Doch eine vom Büro Vollmer im Oktober 1992
durchgeführte Blitzumfrage bei DV‑Managern aus der deutschen Industrie ergab,
dass nach Meinung dieser Fachleute im Topmanagement die Bedeutung des Reengineerings überhaupt noch nicht
verstanden wurde.
Zur Erneuerung der IS‑Strukturen gehört eine Vielzahl von
Aktivitäten. Datenmodellierung und Prozessmodellierung.
CASE‑Einsatz (AD/Cycle) und
Repositorium (Repository Manager).
Da wartet die objektorientierte
Programmierung (OOP), die Ausgestaltung des Information Warehouse und das Management der unternehmensweiten
DV‑Ressourcen, SystemsView.
Jede dieser Novitäten ein großer Schritt für sich ‑ und voller Ungewißheiten.
Schon führte dies dazu, dass IBM ihr AD/Cycle‑Konzept
in einem zentralen Punkt überdachte: beim Repositorium.
Doch gelingt die schrittweise Erneuerung, dann ist mehr
gewonnen als mit einer noch so spektakulären Revolution. Die Glaubwürdigkeit
ist wiederhergestellt. Der erste Schritt aber muss die Datenmodellierung sein.
Eine Investition, die keiner sieht...
1 Kommentar:
„Nichts tun ‑ das ist auf jeden Fall tödlich", warnt gar der frühere MBB‑Manager Heinz Mistelbauer, nunmehr verantwortlich für das Consulting Datenmanagement bei der CAP debis Integrierte Anwendungssysteme GmbH in Riemerling bei München. „Mit dem Nutzen ist es wie mit den Zinsen. Sie werden erst später erkennbar."
stitching services in lahore ,
bulk shirt stitching cost ,
Kommentar veröffentlichen