Montag, 26. November 2012

1992 GIGAsteps Classichs: Insourcing (Teil 4)



„Das Object bleibt an sich selbst immer unbekannt; wenn aber durch den Verstandesbegriff die Verknüpfung der Vorstellungen, die unsrer Sinnlichkeit von ihm gegeben sind, als allgemeingültig bestimmt wird, so wird der Gegenstand durch dieses Verhältnis bestimmt, und das Urtheil ist objectiv."

Immanuel Kant, deutscher Philosoph, 1724 ‑ 1804[1]

3.0 Daten: die rätselhafteste Ressource

3.1 Der feste Grund

Ordnung ‑ post festum.Wir stehen vor erheblichen Integrationsproblemen", sieht Henkel‑Manager Helmut Rhefus vor allem die Konfrontation mit den bestehenden Systemen. „Wir sind im Laufe der Jahre pfiffig geworden, die hohen Aufwendungen für die Software‑Entwicklung zu begründen. Wir waren auch ganz gut darin, das Machbare zu schaffen", möchte der frühere Lufthanseat  Münzenberger indes keineswegs nun die Alte Welt in Bausch & Bogen verdammt sehen. Doch die Tatsache bleibt, dass alles nicht so recht zusammenpasst.
Nunmehr stünden die Anwender vor der Aufgabe, „Ordnung im nachhinein zu schaffen. Das kostet Geld, wobei Investitionen in CASE‑Tools allein die Probleme auch nicht lösen", warnt  Münzenberger. Schlimmer noch: Mit dem blinden Einsatz dieser Werkzeuge „können wir das Chaos sogar noch vergrößern", setzt Methodenchef Alfred  Werra von der R+V nach. Was wirklich hilft, gleichsam die conditio sine qua non darstellt, das macht  Datenmodellierer  Vetter klar. Es ist das  Datenmodell, das für ihn längst zum Credo avancierte.
Vetter konstatiert: „Angesichts der nachweisbaren positiven Auswirkungen muss man heute fast zwangsläufig zur Schlussfolgerung kommen, dass eine auf ein globales konzeptionelles  Datenmodell verzichtende Unternehmung gegenüber der Konkurrenz, welche die vorteilhaften und günstigen Auswirkungen derartiger Modelle zu nutzen weiß, früher oder später in Rückstand geraten wird".[2]
Ewige Gültigkeit. Kurzum: Für ihn bilden  Datenmodelle den ewigen Goldgrund der betrieblichen Informatik. Sie enthalten die solange gesuchte kostbare Quintessenz, die trotz Chaos den Zusammenhalt wahrt und trägt.
Die  Datenmodellierung ist ein transzendentes Etwas, das als Mittler und Filter zwischen den Objekten der realen Welt und deren Abbildung in der Informationswelt wirkt. Sie liefert ein säkularisiertes Credo. Die  Datenmodellierung will der Informationswelt festen Grund geben, bestimmt hier die vielfältigen Themen, die sie sich einigend und ordnend unterwerfen möchte. Und sie erhebt diesen Anspruch mit gutem Grund: denn unbestritten ist die Langlebigkeit des  Datenmodells.
Daraus bezieht sie ihre intellektuelle Brisanz und steht längst inmitten einer seit mehreren Jahren weltweit geführten Fach‑Diskussion.
Professor Dr. August‑Wilhelm Scheer, Leiter des Instituts für Wirtschaftsinformatik der Universität Saarbrücken, unterstreicht die herausragende Bedeutung des Datenmodells: „Ich möchte sogar behaupten, dass es innerhalb der gesamten Informationstechnologie die größte Stabilität besitzen, wenn man im Vergleich dazu die Kurzlebigkeit von Hardware, den Einsatz von Datenbankkonzepten oder sogar von Anwendungssoftware sieht".[3] Und DG‑Mann Brandhofe bestätigt diese professurale Äußerung aus der der Praxis: „Wir setzten uns sehr früh, nämlich seit 1984, mit der  Datenmodellierung auseinander. Die Ergebnisse haben sich als äußerst stabil erwiesen".
Aus Lowell (Massachusetts) schaltet sich der amerikanische Management‑ und Technologie‑Berater Efrem Mallach in das Glaubensbekenntnis ein: „Programme kommen und gehen. Die Anforderungen wandeln sich. Das Geschäft ändert sich. Die Technologie ermöglicht neue Funktionen. Was jedoch über all die Jahrzehnte bleibt, was zu ändern sich IS‑Manager aber auch am meisten scheuen, ist die Datenbasis".[4]
Bankrott des Funktionalismus. Trotz der allseits anerkannten Langzeitwirkung von  Datenmodellen wird ihre Bedeutung aber noch immer wieder ignoriert ‑ auch von Softwareanbietern, die durch ausufernden Funktionalismus über die grundlegende Schwäche ihrer Angebote hinwegzutäuschen versuchen. Und die Anwender fallen immer wieder darauf rein.
Dazu zwei Beispiele aus den USA, die übrigens in puncto  Datenmodellierung Europa eine Nasenlänge voraus sein sollen:
Überwältigt von den Funktionalitäten, die ein PPS‑System bot, kaufte eine Fertigungs‑Firma aus Massachusetts das reichhaltige Software‑Produkt ‑ und ging daran bankrott. Der Grund: das dem PPS‑System zugrunde liegende  Datenmodell harmonierte in keiner Weise mit den Geschäftsprozessen des Unternehmens.[5]
Noch glimpflich davon kam eine amerikanische Handelskette, die Mitte der achtziger Jahre drei Millionen Dollar in ein funktionsträchtiges Software‑Projekt investierte mit dem Ziel, POS‑Geräte in 4.000 Filialen zu installieren und zu integrieren. Das Projekt musste eingestampft werden, weil überhaupt nicht an ein  Datenmodell gedacht worden war, das im Back‑Office‑Bereich den Informationsfluß beherrschbar machte. Stattdessen wurde nur an die Schönheit der Anwendung gedacht.[6] Zwei profane Beispiele, die deutlich die Gefährlichkeit des Funktionalismus in der Datenverarbeitung deutlich machen. Doch damit ist nun Schluss.

3.2 K.O‑Kriterium der Softwarewahl

Immer mehr Daten ‑ immer weniger Informationen. „Kein Standardprogramm ohne integriertes  Datenmodell", fordert bereits  Vetter ein neues K.O.‑Kriterium bei der Softwarewahl. Doch enthebt solch ein inhärentes  Datenmodell den Anwender nicht der Verantwortung, dessen Stimmigkeit mit der eigenen Wirklichkeit minutiös abzugleichen. Er muss also letztlich die  Datenmodellierung selbst in Angriff nehmen. Das, was ein solches integriertes  Datenmodell objektiviert, muss der subjektiven Wirklichkeit des Anwenders entsprechen. Und das setzt sich fort bis auf die Benutzerebene. Nur so kommen DV und Benutzer zusammen.
Bislang galt: Erst durch die Anwendung werden aus Daten Informationen. In der Anwendung versteckte sich dabei die Semantik. Sie allein erschloss dem Benutzer die Bedeutung der Daten. Deswegen wurden in den vergangenen zwei Jahrzehnten die Applikationen mit Funktionen überhäuft, um immer mehr Sinn aus den Daten zu quetschen. Doch das Ergebnis war fatal: „Wir haben immer mehr Daten angehäuft, aber wir konnten immer weniger das Informationsbedürfnis der Benutzer befriedigen", weist R+V‑Manager Werra, auf das wachsende Delta zwischen Daten und Informationen hin. CAP debis‑Berater Mistelbauer formuliert das so: „Das Datenchoas verursacht das Informationschaos." Es wird vor allem dann offenbar, wenn die unterschiedlichen Bedeutungsinseln, die Anwendungen bislang darstellten, zu einem Gesamtsystem verwoben werden sollen. Dann brechen die semantischen Probleme voll durch.
Welche verheerenden Folgen diese semantischen Probleme zeitigen können, zeigt folgendes Beispiel:
Millionenschaden. Die Investmentbank First Boston musste 1988 wegen eines einfachen semantischen Problems in ihrem Wertpapiergeschäft Millionenverluste hinnehmen. Sie hatte bei einer Revision festgestellt, dass Hypothekenbriefe, die sie gekauft hatte, weniger wert waren als gedacht ‑ nur weil der Computer nicht unterscheiden konnte zwischen neuen und alten Hypothekenbriefe. Sie wurden alle als alt eingestuft und damit zu hoch bewertet, da die meisten Hypothekenbriefe noch keine Historie besaßen, aus denen man ihren Wert unter wechselnden Marktbedingungen besser hochrechnen konnte. Niemand entdeckte diesen Fehler. Erst bei einer internen Revision war das Mißverhältnis aufgedeckt worden. Die Schadenserwartung belief sich zwischen 10 und 50 Millionen Dollar.[7]
 Solche teuren Mißverständnisse kann ein durchdachtes  Datenmodell verhindern. Denn es leistet vor allem eine begriffliche Ordnung im Datenchaos. Denn „das bei weitem größte Problem ist die Semantik", meint Robert M. Curtice von Arthur D. Little in Cambridge (Massachusetts).[8] Daniel S. Appleton, Präsident der Beratungsfirma D. Appleton Co. Inc. aus Manhattan Beach in Kalifornien, behauptet: „Daten sind die rätselhafteste Informationsressource".[9] Dabei kann ihr Wert kaum kalkuliert werden, denn „alles hängt davon ab, wie Informationen benutzt werden", hält der Technologie‑Berater Efrem Mallach ihre Bedeutung im Vergleich mit anderen Investitionsgütern eigentlich für unschätzbar. „Die Verantwortung für die Pflege von Informationen geht über die pure Vorhaltung der Daten in Speichern oder der Maschinen, die sie verarbeiten, hinaus." Sie umfaßt vielmehr „ein Verständnis dafür, was gute und was schlechte Informationen sind".[10] Gefordert ist also die Verantwortung für den Sinn von Daten. Hier liegen die größten Rätsel.
Hier aber ist auch der Ort für die Investitionen, die keiner sieht...»



[1] Immanuel Kant, Kants Werke ‑ Berlin 1968: „Kritik der reinen Vernunft" ‑ „Prolgomena" (1. Auflage 1781)
[2] Institut '90, IBM Deutschland GmbH, Stuttgart, 12.‑13.9.90, Vortragsunterlagen, Dr. Max Vetter: „Die globale Datenmodellierung zur Lösung des `Jahrhundertproblems der Informatik'
[3] Computerwoche, 8.12.89, Wolf‑Dietrich Lorenz (Interview mit Professor Scheer): „Im Daten‑Haus der Zukunft herrscht Transparenz"
[4] Computerworld, 20.8.90, Efrem Mallach: „Without a data model, everything falls down"
[5] Computerworld, 20.8.90, Efrem Mallach: „Without a data model, everything falls down"
[6] Computerworld, 28.11.88, Frank Sweet: „Database directions"
[7] Wall Street Journal, 1.3.88, Steve Swartz: „First Boston Ex‑Official says system caused possible loss"
[8] Datamation, 1/86, Robert M. Curtice: „Getting the database right"
[9] Datamation, 10/83, Daniel S. Appleton: „Law of the data jungle"
[10] Computerworld, 17.10.88, Efrem Mallach: „Climbing castles of data“

Keine Kommentare: