Die Zeiten, in denen Unternehmen über eine überschaubare Menge unkomplizierter Daten verfügten und diese verwalten mussten, sind lange vorbei. Vielmehr sehen wir, dass der Wunsch nach Flexibilität in der Nutzung von Daten stark die Heterogenität in den Daten und der Systemlandschaft treibt:
- BI-Anwender vermengen Berichtsdaten mit lokalen Daten und generieren daraus neue Datensätze und Berichte unter Umständen mit eigenen Technologien,
- Business Analysten nutzen eigene Tools zur Datenaufbereitung (Data Preparation) um Auffälligkeiten in Daten aufspüren zu können,
- lokale Spezial-Lösungen mit eigenen Datenspeichern werden gebaut und genutzt,
- Data Lab Teams arbeiten autark und nutzen Data Lakes für die Sammlung von Rohdaten,
- externe Daten werden eingekauft und genutzt,
- Geräte oder Nutzer auf Webseiten genieren unentwegt Daten, die gesammelt und/oder direkt verarbeitet werden können,
- ERP-, CRM-Systeme erweitern ihre Datenbasis und bauen ihr analytisches Portfolio zunehmend aus,
- E-Mails, Social Media, Bilder u. w. enthalten wertvolle weiterführende Informationen, die durch spezielle Funktionen analysierbar gemacht werden müssen,
- Data Scientisten erstellen Data Sets und Modelle im Zuge der explorativen Analysen.
Noch nie standen IT-Abteilungen und Fachbereichen so viele technische Möglichkeiten zur Verfügung, Daten nutzen zu können um das Unternehmen wettbewerbs- und zukunftsfähig aufzustellen. Jedoch fehlt es oft an einem grundsätzlichen Konzept um den übergreifenden Produktionsfaktor „Daten“ auch nachhaltig zu steuern, zu entwickeln und zu pflegen.
Komplexe Datenlandschaften benötigen eine einheitliche Datensteuerung
Unternehmen verfügen heute im Wesentlichen über drei Bereiche, in denen Daten erzeugt, gesammelt und genutzt werden, und die jeweils eigene Spezifika aufweisen: Kerngeschäftsprozesse, klassische BI sowie explorative BI. Diese drei Bereiche unterscheiden sich jeweils in ihrer Zielsetzung, der Verwendung von Daten, den Anforderungen an Daten, in den eingesetzten Technologien, in Ansätzen und Vorgehensweisen in der Arbeit mit Daten und den benötigten Rollen und Menschen. Daher nennen wir diese drei Bereiche multi-modale Datenumgebungen. In der Praxis begegnen uns zusätzlich zu diesen drei Umgebungen oft zahlreiche Insellösungen, in denen Aufgaben quasi in einer „Black Box“ autark bearbeitet werden.
Auf ihre multi-modalen Datenumgebungen (Abbildung 1) angesprochen, beklagen Unternehmen oft ihr fehlendes Wissen um die verfügbaren Daten und deren Verwendung ihren Datenlandschaften. Sie leiden an der mangelhaften organisatorischen und technischen Vernetzung der unterschiedlichen Bereiche, sodass sie die Daten oft nicht übergreifend nutzen können.
Jedoch wollen und müssen heutige daten-gesteuerte Unternehmen ihre Daten aktiv und übergreifend verwalten um sie zu verstehen und auch richtig anwenden zu können. Und dies ist Kernaufgabe von Data Governance. Data Governance (Datensteuerung) entspricht in Summe den Menschen, Prozessen und Technologien, die zur Verwaltung und zum Schutz des Datenkapitals des Unternehmens benötigt werden, um allgemein verständliche, korrekte, vollständige, vertrauenswürdige, sichere und auffindbare Unternehmensdaten kosteneffizient garantieren zu können. Dies wird durch
Abbildung 2: Beispiel Datenmodellierung - Die BI Scout Marktübersicht listet in Deutschland verfügbare Tools für Data Governance. Insgesamt umfasst die Datenbank 97 Data-Governance-Produkte.
Metadaten als Medium zur Datensteuerung
Für die technologische Umsetzung einer Data Governance zeigen sich Metadaten als Dreh- und Angelpunkt. Sie bilden den „Kleber“, um Daten zwischen den Bereichen nutzen, sie entlang ihres Lebenszyklus technisch und fachlich verstehen, sowie Zusammenhänge abbilden zu können.
Metadaten liefern Wissen rund um die Daten. Dies können bspw. Min-, Max- und Durchschnittswerte über die Einträge in einer Tabellenspalte sein, beschreibende Kommentare über den Grund der Anlage einer Tabelle in einem Data Lake, Kontakt-Informationen zum Daten-Ersteller und -Produzenten für Nachfragen, oder auch Informationen zur Datenqualität (bspw. Zeitpunkt des letzten Updates, Dublettenquote, Anteil fehlender, unerlaubter oder falscher Werte), Sensitivität und Vorschriften für die erlaubte Verwendung (besonders schützenswerte Personendaten, geschäftsinterne Produktionsinformationen, öffentlich verfügbare Finanzkennzahlen, etc.). Durch Metadaten können Unternehmen bereichsübergreifende Business Glossare und Datenkataloge aufbauen und mittels Verwendungsnachweisen Datenherkunft und -verwendung dokumentieren. Metadaten helfen, Beziehungen zwischen Daten zu verstehen und die Zusammenarbeit zwischen IT und Fachbereich zu fördern indem technische Daten mit fachlichem Kontext verknüpft werden.
Metadaten sind essentiell für eine Data Governance. Data-Governance-Werkzeuge fokussieren demnach oftmals die Sammlung, Anreicherung und Analyse von Metadaten zur Unterstützung von Data-Governance-Prozessen wie bspw. Data Stewardship. BARC hat im Rahmen von Beratungs- und Research-Projekten den Markt an Data-Governance-Werkzeugen sondiert und Werkzeugklassen gebildet um das technologische Angebot zu strukturieren, um auf Basis dessen Unternehmen bei ihrer Strategie- und Software-Auswahl zu unterstützen. In der BI Scout Marktübersicht sind die wichtigsten Werkzeugklassen beschrieben und die für den DACH-Raum relevanten Anbieter mit ihren konkreten Werkzeugen aufgeführt.
Timm Grosser ist Head of Consulting und Senior Analyst am Business Application Research Center (BARC) mit den Schwerpunkten auf BI, Datenmanagement und Big Data. Seine Kernkompetenzen sind entscheidungsunterstützende Informationssysteme mit einem besonderen Fokus auf strategischen Themen im Datenmanagement und Big Data. Er unterstützt Unternehmen in der Definition und Umsetzung ihrer BI- und Big-Data-Strategie, -Organisation, -Architektur und -Werkzeugauswahl. Er ist ein gefragter Redner auf Konferenzen und Seminaren sowie Autor zahlreicher BARC-Marktstudien und Fachartikel. Kontakt: tgrosser@barc.de, Tel.: +49 931/880 651-0
Lars Iffert ist Analyst und Berater am Business Application Research Center (BARC). Seine Schwerpunkte sind die Datenverwaltung, Datenintegration, Datenqualität sowie Advanced und Predictive Analytics. Er unterstützt Unternehmen bei strategischen Fragen, im Softwareauswahlprozess und in der Überprüfung bestehender Lösungen. Er ist Autor diverser BARC-Produkt- und -Anwenderstudien. Kontakt: liffert@barc.de, Tel.: +49 931/880 651-0
BI Scout Newsletter
Einmal monatlich in Ihren Posteingang: aktuelle Fachbeiträge, News und Events für Business Intelligence, Analytics & Big Data.
Hier für den BI Scout Newsletter anmelden:
Aktuelle Beiträge
-
Künstliche Intelligenz braucht ethische Leitplanken
-
Alternative Data: Warum lohnt sich der Blick über den Daten-Tellerrand?
-
Data Science-Projekte: Drei Hindernisse auf dem Weg zum Erfolg
-
"Es fällt vielen Branchen schwer, die Potenziale der Digitalisierung zu erkennen."
-
Die IBM KI-Leiter: Mit KI ganz nach oben
-
Von einfachen Data Catalogs zu intelligenten Systemen
BI & Big Data Events
News
Weitere News-
Neues TDWI Poster "Process Mining - Datenanalyse in Prozessen zur digitalen Prozessoptimierung"
-
Prognosen 2022: So verschafft smarte Datennutzung Unternehmen Wettbewerbsvorteile
-
Flughafen München: Weniger Lärm und Schadstoffe dank Data Analytics
-
Digitalisierung: Sieben von zehn Deutschen halten Politik für ahnungslos
-
CoPlanner erweitert seine Geschäftsführung
-
Die Kaufprioritäten der Analytics- und BI-Käufer sollten datengetrieben sein