„Das Object bleibt an sich selbst immer unbekannt; wenn aber durch den Verstandesbegriff die Verknüpfung der Vorstellungen, die unsrer Sinnlichkeit von ihm gegeben sind, als allgemeingültig bestimmt wird, so wird der Gegenstand durch dieses Verhältnis bestimmt, und das Urtheil ist objectiv."
Immanuel Kant, deutscher Philosoph, 1724 ‑ 1804[1]
3.0 Daten: die rätselhafteste Ressource
3.1 Der feste Grund
Ordnung ‑ post festum. „Wir stehen vor erheblichen
Integrationsproblemen", sieht Henkel‑Manager Helmut Rhefus
vor allem die Konfrontation mit den bestehenden Systemen. „Wir sind im Laufe
der Jahre pfiffig geworden, die hohen Aufwendungen für die Software‑Entwicklung
zu begründen. Wir waren auch ganz gut darin, das Machbare zu schaffen",
möchte der frühere Lufthanseat Münzenberger
indes keineswegs nun die Alte Welt in Bausch & Bogen verdammt sehen. Doch
die Tatsache bleibt, dass alles nicht so recht zusammenpasst.
Nunmehr stünden die Anwender vor der Aufgabe, „Ordnung im
nachhinein zu schaffen. Das kostet Geld, wobei Investitionen in CASE‑Tools
allein die Probleme auch nicht lösen", warnt Münzenberger. Schlimmer noch: Mit dem
blinden Einsatz dieser Werkzeuge „können wir das Chaos sogar noch
vergrößern", setzt Methodenchef Alfred Werra von der R+V nach. Was
wirklich hilft, gleichsam die conditio sine qua non darstellt, das macht
Datenmodellierer Vetter klar. Es ist das Datenmodell, das für ihn längst zum Credo
avancierte.
Vetter konstatiert: „Angesichts der nachweisbaren
positiven Auswirkungen muss man heute fast zwangsläufig zur Schlussfolgerung kommen,
dass eine auf ein globales konzeptionelles Datenmodell verzichtende Unternehmung
gegenüber der Konkurrenz, welche die vorteilhaften und günstigen Auswirkungen
derartiger Modelle zu nutzen weiß, früher oder später in Rückstand geraten
wird".[2]
Ewige Gültigkeit. Kurzum: Für ihn bilden Datenmodelle den ewigen Goldgrund der
betrieblichen Informatik. Sie enthalten
die solange gesuchte kostbare Quintessenz, die trotz Chaos den Zusammenhalt
wahrt und trägt.
Die Datenmodellierung
ist ein transzendentes Etwas, das als Mittler und Filter zwischen den Objekten
der realen Welt und deren Abbildung in der Informationswelt wirkt. Sie liefert
ein säkularisiertes Credo. Die Datenmodellierung
will der Informationswelt festen Grund geben, bestimmt hier die vielfältigen Themen,
die sie sich einigend und ordnend unterwerfen möchte. Und sie erhebt diesen
Anspruch mit gutem Grund: denn unbestritten ist die Langlebigkeit des Datenmodells.
Daraus bezieht sie ihre intellektuelle Brisanz und steht
längst inmitten einer seit mehreren Jahren weltweit geführten Fach‑Diskussion.
Professor Dr. August‑Wilhelm Scheer, Leiter des
Instituts für Wirtschaftsinformatik der Universität Saarbrücken,
unterstreicht die herausragende Bedeutung des Datenmodells: „Ich möchte sogar
behaupten, dass es innerhalb der gesamten Informationstechnologie die größte Stabilität
besitzen, wenn man im Vergleich dazu die Kurzlebigkeit von Hardware, den
Einsatz von Datenbankkonzepten oder sogar von Anwendungssoftware sieht".[3] Und DG‑Mann
Brandhofe bestätigt diese professurale Äußerung aus der der Praxis: „Wir
setzten uns sehr früh, nämlich seit 1984, mit der Datenmodellierung auseinander. Die Ergebnisse
haben sich als äußerst stabil erwiesen".
Aus Lowell (Massachusetts) schaltet sich der amerikanische
Management‑ und Technologie‑Berater Efrem Mallach in das Glaubensbekenntnis
ein: „Programme kommen und gehen. Die Anforderungen wandeln sich. Das Geschäft
ändert sich. Die Technologie ermöglicht neue Funktionen. Was jedoch über all
die Jahrzehnte bleibt, was zu ändern sich IS‑Manager aber auch am meisten
scheuen, ist die Datenbasis".[4]
Bankrott des Funktionalismus. Trotz der allseits
anerkannten Langzeitwirkung von Datenmodellen
wird ihre Bedeutung aber noch immer wieder ignoriert ‑ auch von
Softwareanbietern, die durch ausufernden Funktionalismus über die grundlegende
Schwäche ihrer Angebote hinwegzutäuschen versuchen. Und die Anwender fallen
immer wieder darauf rein.
Dazu zwei Beispiele aus den USA, die übrigens in puncto Datenmodellierung Europa eine Nasenlänge
voraus sein sollen:
Überwältigt von den Funktionalitäten, die ein PPS‑System
bot, kaufte eine Fertigungs‑Firma aus Massachusetts das reichhaltige Software‑Produkt
‑ und ging daran bankrott. Der Grund: das dem PPS‑System zugrunde liegende Datenmodell harmonierte in keiner Weise mit
den Geschäftsprozessen des Unternehmens.[5]
Noch glimpflich davon kam eine amerikanische Handelskette,
die Mitte der achtziger Jahre drei Millionen Dollar in ein funktionsträchtiges
Software‑Projekt investierte mit dem Ziel, POS‑Geräte in 4.000 Filialen zu
installieren und zu integrieren. Das Projekt musste eingestampft werden, weil
überhaupt nicht an ein Datenmodell
gedacht worden war, das im Back‑Office‑Bereich den Informationsfluß
beherrschbar machte. Stattdessen wurde nur an die Schönheit der Anwendung
gedacht.[6] Zwei profane Beispiele,
die deutlich die Gefährlichkeit des Funktionalismus in der Datenverarbeitung
deutlich machen. Doch damit ist nun Schluss.
3.2 K.O‑Kriterium der Softwarewahl
Immer mehr Daten ‑ immer weniger Informationen. „Kein
Standardprogramm ohne integriertes Datenmodell",
fordert bereits Vetter ein neues K.O.‑Kriterium
bei der Softwarewahl. Doch enthebt solch ein inhärentes Datenmodell den Anwender nicht der
Verantwortung, dessen Stimmigkeit mit der eigenen Wirklichkeit minutiös
abzugleichen. Er muss also letztlich die Datenmodellierung selbst in Angriff nehmen.
Das, was ein solches integriertes Datenmodell
objektiviert, muss der subjektiven Wirklichkeit des Anwenders entsprechen. Und
das setzt sich fort bis auf die Benutzerebene. Nur so kommen DV und Benutzer
zusammen.
Bislang galt: Erst durch die Anwendung werden aus Daten
Informationen. In der Anwendung versteckte sich dabei die Semantik. Sie allein
erschloss dem Benutzer die Bedeutung der Daten. Deswegen wurden in den
vergangenen zwei Jahrzehnten die Applikationen mit Funktionen überhäuft, um
immer mehr Sinn aus den Daten zu quetschen. Doch das Ergebnis war fatal:
„Wir haben immer mehr Daten angehäuft, aber wir konnten immer weniger das
Informationsbedürfnis der Benutzer befriedigen", weist R+V‑Manager Werra,
auf das wachsende Delta zwischen Daten und Informationen hin. CAP debis‑Berater
Mistelbauer formuliert das so: „Das Datenchoas verursacht das
Informationschaos." Es wird vor allem dann offenbar, wenn die
unterschiedlichen Bedeutungsinseln, die Anwendungen bislang darstellten, zu
einem Gesamtsystem verwoben werden sollen. Dann brechen die semantischen Probleme
voll durch.
Welche verheerenden Folgen diese semantischen Probleme
zeitigen können, zeigt folgendes Beispiel:
Millionenschaden. Die Investmentbank First Boston
musste 1988 wegen eines einfachen semantischen Problems in ihrem Wertpapiergeschäft
Millionenverluste hinnehmen. Sie hatte bei einer Revision festgestellt, dass
Hypothekenbriefe, die sie gekauft hatte, weniger wert waren als gedacht ‑ nur
weil der Computer nicht unterscheiden konnte zwischen neuen und alten
Hypothekenbriefe. Sie wurden alle als alt eingestuft und damit zu hoch
bewertet, da die meisten Hypothekenbriefe noch keine Historie besaßen, aus
denen man ihren Wert unter wechselnden Marktbedingungen besser hochrechnen
konnte. Niemand entdeckte diesen Fehler. Erst bei einer internen Revision war
das Mißverhältnis aufgedeckt worden. Die Schadenserwartung belief sich zwischen
10 und 50 Millionen Dollar.[7]
Solche teuren
Mißverständnisse kann ein durchdachtes Datenmodell
verhindern. Denn es leistet vor allem eine begriffliche Ordnung im Datenchaos.
Denn „das bei weitem größte Problem ist die Semantik", meint Robert M.
Curtice von Arthur D. Little in Cambridge (Massachusetts).[8] Daniel S. Appleton,
Präsident der Beratungsfirma D. Appleton Co. Inc. aus Manhattan Beach in
Kalifornien, behauptet: „Daten sind die rätselhafteste
Informationsressource".[9] Dabei kann ihr Wert kaum
kalkuliert werden, denn „alles hängt davon ab, wie Informationen benutzt
werden", hält der Technologie‑Berater Efrem Mallach ihre Bedeutung
im Vergleich mit anderen Investitionsgütern eigentlich für unschätzbar. „Die
Verantwortung für die Pflege von Informationen geht über die pure Vorhaltung
der Daten in Speichern oder der Maschinen, die sie verarbeiten, hinaus."
Sie umfaßt vielmehr „ein Verständnis dafür, was gute und was schlechte
Informationen sind".[10]
Gefordert ist also die Verantwortung für den Sinn von Daten. Hier liegen die
größten Rätsel.
Hier aber ist auch der Ort für die Investitionen, die keiner
sieht...»
[1] Immanuel Kant, Kants Werke ‑ Berlin 1968: „Kritik
der reinen Vernunft" ‑ „Prolgomena" (1. Auflage 1781)
[2] Institut '90, IBM Deutschland GmbH, Stuttgart, 12.‑13.9.90,
Vortragsunterlagen, Dr. Max Vetter: „Die globale Datenmodellierung zur Lösung
des `Jahrhundertproblems der Informatik'“
[3]
Computerwoche, 8.12.89, Wolf‑Dietrich Lorenz
(Interview mit Professor Scheer): „Im Daten‑Haus der Zukunft herrscht
Transparenz"
[6] Computerworld, 28.11.88, Frank Sweet: „Database directions"
[7] Wall Street Journal, 1.3.88, Steve
Swartz: „First Boston Ex‑Official says system caused possible loss"
[8] Datamation,
1/86, Robert M. Curtice: „Getting the database right"
[9] Datamation,
10/83, Daniel S. Appleton: „Law of the data jungle"
Keine Kommentare:
Kommentar veröffentlichen