Dokumenten Management und Archivierung GmbH
Dr. Peter Toebak

Spitzackerstr. 7
CH-4410 Liestal

Festnetz +41 61 921 89 92
Mobil +41 79 706 24 39
toebak@toebak.ch
Kontaktformular

Online-Publikationen 1998

Das Data Warehouse Konzept und die Archiv- und Dokumentationspraxis. Probleme und Chancen (1998*).

von Peter Toebak

Inhalt

Einleitung

Informationsmanagement; neue Entwicklungen

Data Warehouse Konzept; Potenz und Herausforderungen

Schema I

Bestandsbewertung und Langzeitarchivierung

Schema II

Schlussfolgerungen

 

Einleitung

Immer häufiger präsentieren Informatiker und Informationsspezialisten dreischichtige Grundkonzepte als Lösung für die effektive und effiziente Weiterentwicklung des Automatisierungsprozesses[1]. Produktion, Verdichtung, Verwaltung und Ermittlung der Inhalte und Organisation der Tätigkeiten können am besten auf drei Ebenen strukturiert werden. Das Data Warehouse Konzept ist der Zeit das ansprechendste Beispiel in diesem Zusammenhang[2]. Es enthält primär eine technische Sichtweise. Billige Massenspeicher, grosse Kapazitäten, schnell zunehmende Vernetzung, Integration von Systemen am Arbeitsplatz, leistungsfähige und intelligente Suchmaschinen und Auswertungswerkzeuge, mehr Standardformate bringen tatsächlich neue Möglichkeiten. Die konzeptionelle Verteilung auf drei Ebenen hat jedoch auch für die inhaltsbezogene Sichtweise der Informationsvermittlung und Archivierung grosse Bedeutung. Die Faszination des Data Warehouse Konzepts basiert auf einer integrierten Sicht, einer hist

 

orischen Dimension und einer vielseitigen Auswertung der Informationen. Die Analogie mit der papierenen Archivierung und Dokumentation liegt auf der Hand. Hier fanden und finden die Erstellung, Aufbewahrung und Vermittlung der Informationen ebenfalls getrennt in einer operativen, einer Verwaltungs- und einer Gebrauchsphase statt. Dieser Artikel befürwortet ein aktives, selbstbewusstes und pragmatisches Vorgehen der Informationsvermittler und Archivare.

Informationsmanagement; neue Entwicklungen

Bei ‘Information’ handelt es sich um kontext- und zweckbezogene Daten. Ein ‘Datum’ beschreibt einen Sachverhalt und ist (an sich) objektiv. Information hingegen ist subjektiv, spezifisch bezogen auf die Bedürfnisse der Endbenutzer oder Sachbearbeiter. Durch Interpretation, Erkennung und Evaluation wird sie verstanden und zum ‘Wissen’, ‘Meinung’ und ‘Erfahrung’ umgewandelt, aufgrund derer Entscheidungen und Handlungen möglich werden. Im Informationsmanagement oder Informationsfluss-Management sind die Beschaffung, Aufbewahrung, Speicherung, Aktualisierung, Bewertung, Verwaltung, Vermittlung und Nutzung von Information zentral[3]. Für Organisationen ist Informationsmanagement unerlässlich. Die Datenüberflutung muss strukturiert und kanalisiert werden, damit die Entstehungszusammenhang und/oder die Herkunft nachvollziehbar bleiben, ‘Spreu von Weizen’ getrennt wird und die relevanten Daten wiederauffindbar sind. Suchen, Finden und Filtern von Daten und Information geschehen in jedem I(nformation)&D(okumentation)-Bereich[4].

Technologische und organisatorische Entwicklungen, wie Anwendung von Client/Server-Systemen, Vernetzung, Gruppenarbeit, flachere Führungsstrukturen, Projektorganisationen, Prozess- statt Funktionsorientierung, Business Reengineering und New Public Management, eigenständige Profitzentren und Ämter, führen zur Umverteilung von Kompetenzen, zu breit verteilten Arbeits- und Entscheidungsprozessen, wobei die Daten- und Informationsverarbeitung ebenfalls mehr und mehr dezentralisiert wird[5]. Viele Endbenutzer (Sachbearbeiter) sammeln die benötigten Informationen[6] und erstellen die elektronischen Dokumente selber; sie verwalten diese auch zunehmend eigenständig. Hier und da wird sogar an der Notwendigkeit der Informationsvermittlungsstellen und (zentralen) Registraturen gezweifelt (Disintermediation)[7].

Tatsächlich ändert sich für die teilbereichsübergreifenden, nicht-routinisierten und längerfristig relevante Daten produzierenden Informationsprozesse einiges, während die teilbereichsbeschränkten, routinisierten und kurzfristig relevante Daten abliefernden Informationsprozesse schon länger dezentral geschahen[8]. Dabei kommt, dass die Endbenutzer den Unterschied zwischen den herkömmlichen Informationsbereichen, wie Bibliotheken, Dokumentationsstellen, Registraturen und Archive, oft kaum oder nicht mehr anerkennen. Er ist auch wenig relevant, solange man seine Information irgendwo holen kann. Information stammt aus internen oder externen Quellen; sie ist auf Papier, in elektronischer Form oder als Wissen (Know-how und Know-why) in den Köpfen der Mitarbeiter verfügbar. Es ist die Informationslogistik im grossen und ganzen, die für eine Organisation primäre Bedeutung hat. Das verfolgte Ziel ist es, ‘die richtige Information, im richtigen Umfang, in der richtigen Qualität, zur richtigen Zeit, mit möglichst geringem Aufwand, bei der richtigen Person’ zu bringen[9]. Oder: ‘Sichern, dass die Mitarbeiter das wissen, was sie wissen müssen, um im Sinne des Betriebes nützlich zu sein’[10].

Aber damit verschwindet der Koordinationsbedarf noch nicht. Im Gegenteil: Er ist jetzt nötiger als je. Informationsmanagement muss als ‘eine Querschnittsfunktion’ des Unternehmens oder des Amts gesehen werden. ‘Querschnittsfunktion soll heissen, sie geht quer durch alle Funktionsbereiche’, genauso wie Personalwirtschaft und Rechnungswesen, denn in ‘allen funktionalen Bereichen (...) findet Informationsverarbeitung statt’[11]. Informationsmanagement umfasst mehr als Technik und Informatik, es umfasst vor allem auch Informationslogistik, -systematik und -verwaltung. Ausser den technischen Komponenten sollten darum auch die inhaltsbezogenen Komponenten (Information, Form und Umfang) stärker berücksichtigt werden[12]. Das ‘inhaltliche’ Strukturieren der Daten, der Information und des Wissens bekommt einen zunehmenden Stellenwert, da sich zeigt, dass teure und ausgeklügelte Informatik-Technologien an sich die Lösung noch nicht bringen.

Die internen und externen Informationsressourcen erfordern eine integrierte Sichtweise. Koordination, Kooperation und Synergie fördern eine effektive und effiziente Bewirtschaftung der Information. Leider findet eine integrierte Betrachtung sämtlicher Informationsressourcen in Organisationen (noch immer) kaum statt[13]. Dazu braucht es eine unternehmensweite Informationsstrategie, eine inhaltsbezogene Basissystematik und eine technische Gesamtkonzeption, statt einer Mehrzahl an Einzel- oder Insellösungen und einer Zersplitterung in Disziplinen. Und dazu braucht es ausserdem praktische Instrumente. Synergien ergeben sich ‘mühelos’ aus der Ähnlichkeit des Arbeitsgegenstandes der Registratur-, Archiv-, Dokumentations-, Bibliotheks- und Informatikdisziplinen. Zusammenarbeit und Abstimmung zwischen den Bereichen wird künftig immer wichtiger und zwangsläu­figer sein, wobei ihre Spezialfunktionen selbstverständlich wertvoll und wichtig bleiben[14].

Data Warehouse Konzept; Potenz und Herausforderungen

Das Data Warehouse oder Information Warehouse Konzept zeigt eine dreischichtige Struktur oder Architektur auf. Die erste Schicht betrifft die operativen EDV-Systeme, Applikationen oder Anwendungen. Hier werden die Daten während der Alltagsarbeit gebildet und gesammelt. Es kann sich dabei um strukturierte Daten, wie bei Dokumentenverwaltung, Buchhaltung, Finanzmanagement, Lagerhaltung, Workflow, Planung und Steuerung, Datenbanken und geographische Anwendungen, und um unstrukturierte Daten, wie bei erstellten Texten, Tabellen, Grafiken und gescannten Images, handeln. Bis zu 80% der Dokumente eines Unternehmens liegen gerade in diesen unstrukturierten Formaten vor[15]. Zu den unstrukturierten Daten gehören ferner Bilder, Videos und Tonaufnahmen. Teilweise geht es um den schriftlichen Niederschlag von betriebsinternen Arbeits- und Entscheidungsprozessen administrativer, juristischer, wirtschaftlicher oder politischer Art. Über die Archivwürdigkeit dieser Unterlagen sollte bewusst und explizit entschieden werden. Teilweise betrifft es aber externe Datenbestände mit Referenzcharakter für den Geschäftsalltag.

Die zweite Schicht stellt die zentrale Datenbank dar, eine Art Container, welche die EDV-Systeme der ersten Schicht als Quelle für den Aufbau einer komplexen und umfangreichen Datenmasse nutzt. Hier findet das Extrahieren, Transformieren, Konzentrieren, Integrieren, Konvertieren, Kopieren und Lagern bestehender, operativer Daten statt. Dazu sind via die Soft- und Hardware die benötigten Verknüpfungen vorhanden und ist der gewünschte Austausch mö­glich.

Die dritte Schicht ermöglicht einfache und komplexe Abfragen, Auswertungen, Berechnungen und Analysen aufgrund der zentralen Datenbank und/oder sich darauf stützender abteilungs- oder funktionsspezifischer Datamarts. Neue Fragestellungen, die den Inhalt der konstituierenden Einzelbestände übersteigen, sind zum Teil möglich. Für das Retrieval der Daten und die Recherche sind leistungsfähige Speicherstrukturen und Zugriffsmechanismen vorhanden. Die sogenannten elektronischen ‘intelligenten Assistenten’, die für die Benutzer automatisch (bedingte und unbedingte) Recherchen ausführen und ihnen direkt (filtrierte) Ergebnisse übermitteln können[16], passen in diesen Rahmen. Diese Untersuchungen dienen wiederum der Entscheidsfindung und -unterstützung und schaffen zum Teil neuen schriftlichen Niederschlag. Dessen eventuelle Archivwürdigkeit ist wiederum zu berücksichtigen. Wie in der operativen Phase der ersten Schicht von betriebsinternen, zweckorientierten und von betriebsexternen, allgemeinen Information die Rede sein kann, ist das auch in der letzten Phase möglich (Schema I).

tl_files/toebak_gmbh/toebak_content/toebak_grafik/datawa1.gif

 

In der schnellwachsenden Literatur zum Data Warehouse Konzept sind zweifellos klarere Umschreibungen als die obenerwähnte vorhanden. Zum Beispiel: ‘Bei Data Warehousing werden die Daten aus internen und externen Quellen extrahiert, bearbeitet und gemäss Metastrukturen ins zentrale Datenlager überführt, wo die Benutzer auf sie zugreifen können. Manchmal werden bestimmte Extrakte auf Datamarts ausgelagert. In aufbereiteter Form (...) erfüllen sie dort ganze bestimmte Informationsbedürfnisse der Fachabteilungen’[17].

Und: ‘Ein Data-Warehouse speichert alle relevanten Geschäftsdaten eines Unternehmens oder einer Behörde in einer einzigen integrierten relationalen Datenbank. Dabei werden nicht nur (...) aktuelle Daten gespeichert, sondern auch vergangene, so dass eine historische Sicht möglich ist. Zugleich werden Daten aus verschiedenen Datenquellen zusammengeführt und in einheitlichen Formaten und Namenskonventionen gespeichert. Die Daten werden periodisch in regelmässigen Zeitabständen zusammengeführt und somit nur zu festen Zeitpunkten aktualisiert’. Das Konzept zeigt seine ‘Stärken in der einfachen und effizienten Beantwortung komplexer Abfragen und beim Durchforsten der immer grösser werdenden Datenbestände nach Zusammenhängen und Querverbindungen’. Mit ‘neuen Softwaretools, die zum Teil selbstlernenden Charakter besitzen, können aus den bestehenden Daten vollkommen neue, bisher nicht mögliche Erkenntnisse [für die operative Geschäftsführung und das strategische Management] gewonnen werden’[18].

Für das Funktionieren des Data Warehouses sind sowohl die Datenquantität als die Datenqualität wichtig. Die Datenqualität wird durch Aspekte wie ‘Vollständigkeit, Wahrheitsgehalt und Verfügbarkeit’ bestimmt, also durch die Tatsache, ob das Wissen und die Information ‘vollständig, richtig und zeitgerecht’ wiederzugeben und analysierbar sind[19]. Auch die Archivierung legt darauf grossen Wert. Ausserdem wird eine historische Sichtweise gefördert, indem periodisch neue Daten in den zentralen Speicher eingetragen werden und die alten Daten (vorläufig) aufbewahrt bleiben. Doch das Konzept des Data Warehouses bietet der Archivfunktion nicht nur Chancen, es liefert ebenfalls Probleme auf. Die Bewertung von Daten zur Bestimmung der Archivwürdigkeit und die Langzeitarchivierung kommen nicht bewusst und explizit ins Bild, obwohl beide Handlungen für die Archivfunktion und die Bestandsbildende Organisation wichtig sind. Noch mehr Mängel sind festzustellen. Die papierene Schriftgutverwaltung wird nicht (völlig) verschwinden, sollte darum unverkürzt mitintegriert bleiben oder werden. Zum Schluss bleibt die Sicherung des Evidenzwerts oder die Garantie der Nachvollziehbarkeit notwendig.

Es gibt heutzutage so viele und reiche externe Informationsquellen (insbesondere Datenbanken, gleich ob auf CD-Rom, Online über Hosts oder über das Internet), dass Evaluation der Titelumschreibungen und Auswertung der Volltexte durch Informationsvermittler (Dokumentare und Bibliothekare) oder Endbenutzer immer mehr Zeit kosten. Trotzdem ist nur auf diese Weise allgemein verfügbare Information auf konkrete Arbeitsprozesse und Entscheidungsfälle zuzuschneiden[20]. Das Angebot und die Nachfrage verlangen eine betriebsinterne, zweckorientierte Abstimmung, wodurch die Informationsüberflutung kanalisiert und bewältigt werden kann. Das Konzept des Data Warehouses kann hier ebenfalls behilflich sein, sobald es mit den Anforderungen der ‘three layer architecture’ von ‘supplying’, ‘matchmaking’ und ‘using’ von Daten in Übereinstimmung ist[21]. Denn das ‘matchmaking’-Verfahren ermöglicht (zunehmend) einen technischen, strukturierten Austausch zwischen Informationsangebot und -nachfrage.

Das Konzept (und die Technik) des Data Warehouses ist im grossen und ganzen für die Archiv- und die Dokumentationsfunktion attraktiv. Es enthält wesentliche Chancen für den Aufbau und Ausbau einer integrierten, wirkungsvollen Informationsstrategie. Vor allem die Container-Architektur mit der zentralen Datenbank als Mittelpunkt bietet die notwendige organisatorische Voraussetzung, um die technischen Möglichkeiten und die inhaltsbezogenen Fragestellungen miteinander zu vereinbaren. Doch besteht die Gefahr, dass Techniker und Informatiker ihren Anfangsfehler wiederholen, nämlich dass sie ohne (allzuviele) Rücksichtnahme auf die ‘Gesetze’ und ‘Praktiken’ der inhaltsbezogenen Informationsvermittlung das Daten-, Informations- und Wissensmanagement mit rein technischen Mitteln zu organisieren, zentralisieren und verwalten versuchen. Wie schon früher mit Volltext-Retrieval eine uneingeschränkte Zukunft versprochen wurde, ohne weiteren menschlichen Erschliessungs- und Verwaltungsaufwand, so droht jetzt mit der Werbung für Data Warehousing und Data Mining dasselbe aufs neue zu geschehen.

Elektronische Suchmaschinen und ‘intelligente Assistenten’ werden sicherlich mehr und mehr (routinisierte) menschliche Erschliessungs- und Vermittlungsarbeit ersetzen, indem auch die Endnutzer zunehmend selber recherchieren und während laufender Arbeits- und Entscheidungsprozesse digitale Daten und Dossiers verwalten werden. Die Notwendigkeit einer aktiven beratenden, koordinierenden und kontrollierenden Funktion von Dokumentaren, Registratoren und Archivaren als den inhaltsbezogenen Informationsspezialisten einer Organisation verschwindet damit jedoch nicht[22]. Sie müssen aktiv die Metastrukturen eines Data Warehouse Konzepts von Anfang an mitbestimmen und mittels inhaltlicher (‘herkömmlicher’) Instrumente, wie zum Beispiel Thesauri, Ordnungs- oder Registraturpläne und sekundärer Daten über Evidenz- und Informationswert (Metadaten), prägen können.

Bestandsbewertung und Langzeitarchivierung

Aus archivischer Sicht sollte beim Aufbau und der Verwaltung eines Data Warehouses (oder allgemeiner: einer dreischichtigen Architektur) vor allem bezüglich der Bewertung, Kassation und Aufbewahrung der Informationen Priorität eingeräumt werden. Evidenzwert hat dabei genauso viel Gewicht wie Informationswert; Kontext ebensogrosse Bedeutung wie Inhalt. Zwei Grundgedanken haben in diesem Rahmen praktische Auswirkung. Erstens: ‘A record is recorded information produced or received in the initiation, conduct or completion of an institutional or individual activity and that comprises content, context and structure sufficient to provide evidence of the activity’[23]. Dokumentarischer Inhalt, organisatorischer und technischer Kontext sowie logische und physische Struktur sind nach dieser Definition bestimmend, und bilden eine Mischung aus Information, Evidenz, Technik und Ausstattung. Die konkrete Darstellung oder Form eines elektronischen Dokuments hängt stark vom verwendeten Trägermedium ab­ und hat bei der Digitalisierung eher abnehmende Bedeutung.

Zweitens: ‘Any organisation that wants to use electronic documentation as evidence in the future will need to satisfy the requirements of evidence in the normal course of conducting its business. (...). [It is clear] that if records that are critical to the organization for long term accountability and to protect its rights are not created by transactions, they cannot be created after the fact from data in information systems’[24]. Dies heisst: Evidenz kann nicht nachträglich eingebaut werden, sondern muss während des laufenden Arbeits- und Entscheidungsverfahrens einen objektiven und beweisergebenden Niederschlag in Archivddokumenten und Akten finden. Archivierung und Dokumentierung unterscheiden sich gerade in diesem Punkt grundsätzlich.

Obwohl Archivakten quasi ‘von selbst’ entstehen, sind Inhalt, Kontext und Struktur auf die Dauer nicht ohne aktive Eingriffe zu gewährleisten. Die archivische Sichtweise muss diesbezüglich eine ausschlaggebende Rolle spielen, weil die genannten Aspekte archivwürdiger Dokumente und Akten zugunsten des Evidenz- und Informationswerts nur im voraus sicherzustellen sind. Wartet der Archivar ab, ist es oft zu spät. Dies gilt für jede digitale Aktenbildung[25], aber vielleicht in noch stärkerem Masse bei einem Data Warehouse Konzept. Der zentrale Container wird nämlich getrennt von den operativen Datenbanken aufgebaut. Obwohl die Bestände, welche daraus stammen, miteinander verknüpft werden, bilden sie nicht eine Gesamtsumme dieser Datenbanken. Beim Aufbau finden aus rationellen Gründen zahlreiche Manipulationen zur Verdichtung, Bereinigung und Strukturierung der Information statt. Das Data Warehouse kann zudem in mehrere Datamarts aufgeteilt werden, dabei geht es um Teileinheiten zur Vereinfachung und Beschleunigung der Abfragen in der zweiten, nichtoperativen Phase. Bei der Nutzung dieser Datamarts können ebenfalls Änderungen und Ergänzungen inhaltlicher und formaler Art auftreten.

Bewusst muss darum entschieden werden, ob Evidenz und Inhalt jedes einzelnen Geschäftsprozesses in den operativen Datenbanken gesichert bleiben, ob die Aggregation der Informationen im zentralen Datenspeicher ausreicht oder ob die späteren Änderungen aufgrund der Datamarts den Vorrang haben[26]. Anders gesagt: Welches Schriftgut ist archivwürdig? Welches repräsentiert das entscheidende Stadium? Oder ist eine Art Kombination zu bevorzugen? Und wie werden dann die gegenseitigen Beziehungen festgelegt?

Die Entscheide zur Bewertung, Kassation und Aufbewahrung von Daten sollten prospektiv geschehen, also schon beim Entwurf eines Data Warehouse Konzepts und aufgrund des Aufgabenpakets und der Aufgabenerledigung einer Organisation ins Gesamtsystem eingebaut werden. Ausser technischer Anforderungen und geschäftlicher Bedingungen, müssen auch Erkenntnisse betreffend Archiv- und Schriftgutverwaltung berücksichtigt werden. Geeignete Metadaten bieten dazu die gewünschten Möglichkeiten. Via Metadaten können die Bewertungs- und Kassationsentscheide nicht nur gesteuert, sondern auch bleibend dokumentiert werden. Sie ‘geben unter anderem Auskunft über den Zusammenhang der Daten im [zentralen] Lagerhaus zu den Originaldaten im Quellsystem sowie über Format, Typ und Speicherort’[27]. Sie sind die ‘strukturgebenden’ Elemente und die ‘brückenbildenden’ Schnittstellen in und zwischen Beständen und Systemen. (Standardisierte) Metadaten gestatten den aktuellen Zugriff auf die Daten quer durch das interne System hin und ebenso auf Daten ausserhalb der eigenen Organisation. Zudem gewähren sie die langfristige Zugänglichkeit der aufzubewahrenden Informationen.

Die dreischichtige Architektur des Data Warehouses soll auf die Bedürfnisse des Unternehmens oder Verwaltungsorgans zugeschnitten werden und macht die Inhalte und Tätigkeiten des Automatisierungsprozesses ebenfalls aus archivischer Sicht übersichtlicher als vorher. Der Archivar hat lediglich noch mit einer automatisierten Struktur zu tun, statt mit einer Vielfalt loser Einzelsysteme[28]. Neben dem zentralen Datenspeicher eines Data Warehouses passt durchaus auch noch ein Container zur Langzeitkonservierung, welcher als Archiv-Container periodisch die (dauerhaft wertvollen) Informationen aus den zentralen Datenspeichern meistens verschiedener archiv- und schriftgutbestandsbildenden Organisationen übernehmen wird[29]. Hier findet das Kumulieren und endgültig ‘Einfrieren’ der Daten statt, durch das Endergebnisse (bei den Akten) und Zeitpunktaufnahmen (bei den Datenbanken) mit Inhalt, Kontext und Struktur gesichert bleiben (Schema II).

 

tl_files/toebak_gmbh/toebak_content/toebak_grafik/datawa2.gif

Schlussfolgerungen

Das Data Warehouse Konzept ist für grössere Unternehmen entwickelt; die vollständige Implementation ist auch sehr kostspielig. Die informationstechnischen Grossinvestitionen betreffen vor allem die automatischen Verfahren beim Aufbau eines zentralen Datenspeichers anhand der Quelldatenbanken und die hochentwickelten themenorientierten, integrierten und zeitbezogenen ‘intelligenten’ Suchmechanismen in der Nutzungs­phase. Werden aber mehr inhaltsbezogene Konzepte und Instrumente aus der Praxis und Theorie der Informationsvermittlung eingebaut, dann zeigen sich gleich zwei positive Effekte. Einerseits ergeben sich technische Einsparungen, andererseits wird eine bessere Abstimmung zwischen den Anforderungen der Informatik-Technologie und denjenigen des Informationsmanagements erreicht. Nicht zuletzt weil dies bis heute oft ausgeblieben ist und die Mitarbeiter ungenügend in die Materie eingeführt sind, werden EDV-Infrastrukturen meistens noch immer nur ‘etwas mehr als nur 30%’ oder ‘bestenfalls zu 30-40%’ genutzt[30].

Sowohl einfachere Netzwerke als auch teure, komplizierte (Intranet-)Systeme eignen sich grundsätz­lich für das Data Warehouse Konzept, jedenfalls für die dreischichtige Architektur des Konzepts[31]. Das kann ein Grund sein, warum es auch auf öffentliche Verwaltungen aller Ebenen und Grössen Anziehungskraft ausübt. Da ist noch ein Grund zu nennen. New Public Management heisst Flexibilisierung und Restrukturierung des Verwaltungsapparats (Stichwort: Konzerngedanke) und die Übernahme von Managementmethoden aus der Privatwirtschaft . Gesellschaft, Politik und Verwaltung fordern aber Transparenz und längerfristige Nachvollziehbarkeit staatlichen Handelns, neben den betriebswirtschaftlichen Indikatoren-Kontrollen. Basierend auf den geltenden Rechtsgrundlagen der Archivierungspflicht, sollten deswegen gleichzeitig Konzernregeln entwickelt werden, welche die Kontinuität der (papierenen und elektronischen) Schriftgutverwaltung und Archivierung gewährleisten. Das archivische Provenienzprinzip muss dabei zunehmend ämter- und abteilungsübergreifend verstanden werden, wodurch die ‘kritische Masse’ einer effizienten dreischichtigen Netzwerk-Architektur eher erreichbar ist.

Das Data Warehouse Konzept ist für die Archiv- und die Dokumentationsfunktion attraktiv[32], obwohl es vielleicht in Ansatz völlige Disintermediation (technische Vermittlung statt menschlicher) voraussetzt. Die dreischichtige Architektur ermöglicht das Kanalisieren der Informationsbewirtschaftung auf pragmatische Weise, nicht nur für den Alltag, sondern auch für den mittel- und langfristigen Termin. Normen und Standards werden die Leistungsfähigkeit und die Zuverlässigkeit des Konzepts noch verstärken. Da die papierene Schriftgutverwaltung nicht (völlig) verschwinden wird, sollte diese mitintegriert werden. Mittels einer gemeinsamen Basissystematik (Klassifikation, Ordnungsplan, Aktenplan) und der Anwendung standardisierter Metadaten kann das reibungslos geschehen. Denn Metadaten und Basissystematiken vermeiden ‘Medienbrüche’ in Raum und Zeit, sie fungieren als Schnittstellen zu allen Beständen, Teilbeständen und Systemen.

Diesmal sollten die Informationsvermittler - die Bibliothekare, Dokumentare, Registratoren und Archivare - die aus technischen (und wirtschaftlichen) Gründen präsentierte Chance des Data Warehouse Konzepts nicht verpassen, so dass sie später nicht wieder mühevoll versuchen müssen, zu korrigieren was noch zu korrigieren ist. Sie sollten innerhalb ihrer Organisationen von Anfang an partizipieren, damit sie ihre unterstützende (und vermittelnde) Funktion beim Aufbau einer Architektur erfüllen können. Vor allem die Archivare müssen ‘proaktiv’ ihre Koordinations- und Kontrollfunktion gegenüber Informatikern, Endbenutzern, Managern und Politikern ausüben. Externe Berater können hierbei eine objektivierende Rolle spielen. Das Vorgehen sollte pragmatisch sein, damit die technischen Partner, die Manager und die Politiker nicht nur die richtige Einsicht und Sensibilität bekommen, sondern auch das Instrumentarium, um tatsächlich einen neuen Weg einzuschlagen.


 * Publiziert in: Der Archivar. Mitteilungsblatt für deutsches Archivwesen, 51 (1998), Heft 1, 157 - 162.

[1]. Zwei konkrete Beispiele: Roberto Rotter, ‘Access to information: a reality in the AGORA project. Effective dissemination requires effective information management: SGML a universal format?’, in: Lino Facco, e.a. (Hrsg.), Proceedings of the DLM-forum on electronic records, Brussels, 18-20 december 1996 (Luxemburg, 1997; herausgegeben von der Europäischen Kommission), 265-274; Phillip J. Webb, ‘Implementation of a knowledge management system within the Defence Evaluation and Research Agency’, in: Facco, Proceedings of the DLM-forum, 275-282.

[2]. Vergleich vor allem W.H. Inmon, John A. Zachman und Jonathan G. Geiger, Data stores, data wa­rehousing, and the Zachman Framework. Managing enterprise knowledge (New York, 1997).

[3]. Hermann Meyer zu Selhausen, ‘Informationsfluss-Management in der Bank’, IK-report. Zeitschrift zum Informationswesen der Kreditwirtschaft, 9 (1996) 10-12; Heiner Müller-Merbach, ‘Die Bank als intelligente Unternehmung: aus der japanischen Managementlehre „Organizational Intelligence“ lernen’, IK-report. Zeitschrift zum Informationswesen der Kreditwirtschaft, 9 (1996) 41-47; Gloria Reyes, ‘Umsetzung von Wissensmanagement im Unternehmen: Die ökonomischen Konsequenzen’, in: Josef Herget und Werner Schwuchow (Hrsg.), Stra­te­gi­sches Informationsmanagement (Kon­stanz, 1997) (Schriften zur Informationswissenschaft, 29), 57; Anita M. Dürr, ‘Informations-Bewirtschaftung’, in: Herget und Schwuchow, Informationsmanagement, 77.

[4]. Kurt Geihs, ‘Chancen und Risiken von Kommunikationsnetzen’, IK-report. Zeitschrift zum Informationswesen der Kreditwirtschaft, 9 (1996) 35; Martin Hüfner, ‘Podiumsdiskussion’, IK-report. Zeitschrift zum Informationswesen der Kreditwirtschaft, 9 (1996) 69-70 (Kurt Geihs); Josef Herget, ‘Strategisches Management für Informationsvermittlungsstellen - Informationsmanagement als Herausforderung’, in: Herget und Schwuchow, Informationsmanagement, 9; Dürr, ‘InformationsBewirtschaftung’, 76.

[5]. Geihs, ‘Chancen und Risiken’, 25-28; Patrick Volker Drotos, ‘Die neue Rolle des Informationsmanagers im virtuellen Unternehmen’, in: Herget und Schwuchow, Informationsmanagement, 44, 46; Dürr, ‘Informations-Bewirtschaftung’, 81; Stefan Grudowski, ‘Die „klassische“ Informationsvermittlung kommt in die Krise - „Smart Information“ als neues Konzept soll helfen’, in: Herget und Schwuchow, Informationsmanagement, 156-157.

[6]. Josef Herget und Siegfried Hensler, ‘Auf der Suche nach dem Endnutzer. Zur Entmythologisierung eines Phänomens’, Nachrichten für Dokumentation. Zeitschrift für Informationswissenschaft und -praxis, 47 (1996), Nr. 1, 15-24 (Ziffern von 1993).

[7]. Siehe zum Beispiel: Hüfner, ‘Podiumsdiskussion’, 54-72.

[8]. Meyer zu Selhausen, ‘Informationsfluss-Management’, 12-14.

[9]. Herget, ‘Strategisches Management’, 9-10.

[10]. Zitiert bei Stefan Grudowski, ‘Begriff Informationsmanagement aus Sicht von Information und Dokumentation’, Nachrichten für Dokumentation. Zeitschrift für Informationswissenschaft und -praxis, 47 (1996), Nr. 6, 354.

[11]. Hüfner, ‘Podiumsdiskussion’, 68 (Hermann Meyer zu Selhausen). Siehe auch Wolfgang Kmuche, ‘Inhaltliches Informationsmanagement’, in: Herget und Schwuchow, Informationsmanagement, 23; Grudowski, ‘Informationsmanagement aus Sicht von Information und Dokumentation’, 352.

[12]. Kmuche, ‘Inhaltliches Informationsmanagement’, 18-28; Dürr, ‘Informations-Bewirtschaftung’, 75-83.

[13]. Herget, ‘Strategisches Management’, 9; Grudowski, ‘Informationsmanagement aus Sicht von Information und Dokumentation’, 352.

[14]. Siehe Peter Toebak, ‘Verlangen Ordnen und Beschreiben, Bewertung und Kassation eine archivspezifische Aus- oder Fortbildung?’, Arbido, XII (1997), Nr. 3, 2-5.

[15]. Ulrich Kampffmeyer und Barbara Merkel, ‘Textretrieval im Intranet’, Nachrichten für Dokumentation. Zeitschrift für Informationswissenschaft und -praxis, 48 (1997), Nr. 3, 170.

[16]. Kampffmeyer und Merkel, ‘Textretrieval im Intranet’, 171; Leo Pennings, ‘Information brokerage and intelligent software agents’, in: Herget und Schwuchow, Informationsmanagement, 121-130. Bei ‘traditioneller Datenanalyse (SQL- und Olap-Abfragen) handelt es sich um sehr konkrete Fragestellungen, die sich durch geschlossene Fragen mit niedrigem Freiheitsgrad bei der Beantwortung auszeichenen. (...). Beim Data Mining ist die Aufgabe hingegen durch offene Fragen mit einem hohen Freiheitsgrad bei der Beantwortung geprägt’ (Susanne Baun und Ernst Lebsanft, ‘Neuronal schürft sich’s am besten. Neuronale Techniken fördern Informationsnuggets zutage’, Computerworld-Spezial, 1997, Nr. 17 (21. April), A9).

[17]. Beat Welte, ‘Beim Data Warehousing geht Studieren über Probieren’, Computerworld-Spezial, 1997, Nr. 17 (21. April), A3.

[18]. Roland Gissler, ‘Technik in der Verwaltung. Vorhandene Informationen sichtbar machen. Data-Warehouse eröffnet Nutzungschancen für die Verwaltung’, Verwaltung, Organisation, Personal (VOP). Die Fachzeitschrift für erfolgreiches Verwaltungsmanagement, 1996, Nr. 12 (Dezember), 49, 52.

[19]. Broschüre ‘Oracle Warehouse. Oracle, the world leader in information management’ (1997).

[20]. Rudolf H. Meyer, ‘Erfolgreiches internes Marketing einer innerbetrieblichen IVS im Rahmen eines integrierten Konzepts dargestellt am Beispiel der „Zentralen Marktforschung“ der Bayer AG’, in: Herget und Schwuchow, Informationsmanagement, 89-91; Heike Hotzel, ‘Erfolgreich arbeiten in ost- und westdeutschen Informationsvermittlungsstellen - welche Unterschiede, welche Gemeinsamkeiten?’, in: Herget und Schwuchow, Informationsmanagement, 101-102; Pennings, ‘Information brokerage’, 121-130; Grudowski, ‘Informationsmanagement aus Sicht von Information und Dokumentation’, 354-355; Grudowski, ‘Informationsvermittlung’, 154-155.

[21]. Leo Pennings, ‘Information brokerage’, 127-129.

[22]. Leo Pennings, ‘Information brokerage’, 129-130; Grudowski, ‘Informationsvermittlung’, 157-158; Jürg Hagmann und Claudia Juech, ‘Strategisches Informationsmanagement bei Finanzdienstleistern’, in: Herget und Schwuchow, Informationsmanagement, 184.

[23]. John McDonald, e.a., Guide for managing electronic records from an archival perspective. Consultation draft of the ICA Electronic Records Committee (s.l., 1996), 13-16 (1997 als ICA Studies, Nr. 8, publiziert); Jean-Michel Cornu, Leitlinien (Entwurf): Der Umgang mit maschinenlesbaren Daten. Vom Pa­pier zur elektronischen Information (Brüs­sel, 1996; herausgegeben von der Europäischen Kommission), 9-10, 50.

[24]. David Bearman und Ken Sochats, ‘Metadata requirements for evidence’ (1995), <http://www.oclc. org:5046/conferences/metadata/requirements.txt>.

[25]. McDonald, Guide, 18-19, 24-25; Alf Erlandsson, Electronic records management: a literature review for the ICA Electronic Records Committee (s.l., 1996), 42-49 (1997 als ICA Studies, Nr. 10, publiziert).

[26]. Siehe auch Piers Cain, ‘Data Warehouses as producers of archival records’, Journal of the Society of Archivists, XVI (1995), Nr. 2, 167-171 (mit Dank an Thomas Schärli, Archivar des Staatsarchivs des Kantons Basel-Stadt, für seinen freundlichen Hinweis).

[27]. Welte, ‘Studieren über Probieren’, A5.

[28]. Auch Peter Toebak, ‘The archivist as controller of total information’ (1994), <http://www.toebak.ch>.

[29]. Siehe die Diskussion über ‘custody’ und ‘post-’ oder ‘non-custody’ (McDonald, Guide, 40-50; Erlandsson, Literature review, 58-67).

[30]. Dürr, ‘Informations-Bewirtschaftung’, 76, 78-79. Siehe auch Auswirkungen des Einsatzes von Informationstechnologien auf die Bundesverwaltung (Bern, 1997) (Schlussfolgerungen VKB-Projekt); Pierre Rossel, e.a., L’intégration des nouvelles technologies d’information et de la communication (NTIC) dans l’Administration fédérale (Lausanne, 1996) (Ausgabe von The European Interuniversity Association on Society, Science and Technology (ESST)).

[31]. Siehe zum Beispiel auch: Webb, ‘Implementation of a knowledge management system’, 276, 280, 281.

[32]. Cain war in 1995 vorsichtiger. Aber er sprach von einer zweischichtigen Struktur (‘operational database applications’ und ‘data warehouse’). Die zweite Schicht umfasste gleichzeitig ‘storage’ und ‘use’; ‘data marts’ betrachtete er nicht (‘Data Warehouses’, 171, Fussnote 4). Mir geht es zudem um das Konzept des Data Warehouses, eine dreischichtige Architektur, wobei der zentrale Speicher nicht nur Daten aus der ersten, operationellen Schicht transformieren, integrieren usw., sondern auf Wunsch (nach Bewertung) auch einfach ‘schlucken’ (kopieren) und einfrieren kann. Die archivischen Risiken, die Cain damals mit Recht hervorhob, sind so zu umgehen.