BI-Strategie 2.0: „Ist das BICC zu langsam, entwickeln die Anwender am offenen Herzen.“<br>

BI-Strategie 2.0: „Ist das BICC zu langsam, entwickeln die Anwender am offenen Herzen.“

Interview mit Patrick Keller, Senior Analyst der BARC GmbH, über aktuelle Herausforderungen für Business-Intelligence-Strategien in deutschen Unternehmen.

18.09.2017

Patrick Keller ist Senior Analyst und Berater am Business Application Research Center (BARC) im Bereich Business Intelligence (BI) und Co-Autor vieler Softwareevaluationen und Marktforschungsstudien. Seine Schwerpunkte liegen im Bereich Softwareauswahl, Strategie-, Organisations- und Architekturberatung sowie Konsolidierung von BI-Werkzeugen. Als neutraler Beobachter des Softwaremarkts ist er ein häufiger Sprecher bei Tagungen und Seminaren. Kontakt pkeller@barc.de

 

 

Herr Keller, ausgereifte Business-Intelligence(BI)-Strategien und BI Competence Center (BICC) sind in den vergangenen Jahren in vielen deutschen Unternehmen angekommen. Was sind die aktuellen Herausforderungen?

Patrick Keller (PK): Richtig, inzwischen haben eigentlich alle DAX30 und viele weitere Unternehmen durchdachte BI-Strategien und BICCs im Einsatz. Die grundsätzliche Zielsetzung dieser Kompetenzcenter ist gleich geblieben: Mit Hilfe der Nutzung von Daten sollen bessere Entscheidungen getroffen werden. Mit neuen Datenquellen, Methoden und Ideen gibt es selbstverständlich immer wieder neue Anforderungen.

Ein Trend, den wir als BARC-Institut beobachten, ist, dass BICCs oft nicht mehr nur auf ihre klassischen Themen Reporting, Dashboarding und Standard Data Warehousing fokussiert sind. Immer mehr Analytics-Themen wie Data Science, Data Mining oder Predictive Analytics/Forecasting werden aufgegriffen und als Dienstleistung innerhalb der Unternehmen angeboten (siehe Abbildung 1). Manche Organisationen bilden diese Funktionen mit einem separaten „Data Science Lab“ ab.

Self-Service-Tools sind immer ausgereifter. Wenn Fachbereiche oder Einzelpersonen diese autonom einsetzen, könnte das die Datenintegrität im Unternehmen beeinträchtigen und damit das BICC untergraben. Ist das ein Problem?

PK: Neue Anforderungen der Anwender sollten natürlich möglichst schnell zu deren Zufriedenheit bedient werden können. Das BICC muss aber oft viele nicht-funktionale Anforderungen wie Datensicherheit, Datenschutz, Stammdaten- und Metadaten-Management, Protokollierung, Nachvollziehbarkeit und Entwicklungsvorschriften (zum Beispiel Trennung von Entwicklungs-, Test-, Produktiv-Systemen oder  Entwicklung ohne Zugriff auf Echt-Daten) beachten.

So kann die Umsetzungsgeschwindigkeit von den Fachbereichen als zu langsam empfunden werden. Dann entfernen sich die Anwender von den zentralen Systemen und sind mit Self-Service- oder Data-Discovery-Tools normalerweise schneller in der Umsetzung (siehe Abbildung 2). Allerdings finden die genannten nicht-funktionalen Anforderungen selten Beachtung, sondern Anwender entwickeln auf produktiven Systemen „am offenen Herzen“.  Das ist natürlich nicht wünschenswert. 

Abbildung 1: Bewertung der Trends für BI und Datenmanagement durch Anwender, Dienstleister und Softwareanbieter Quelle: BI Trend Monitor 2017, n = 2772

"Die alte Grundsatzdiskussion ist abgehakt. Viele deutsche Unternehmen haben sich für die Cloud geöffnet."

Wie lässt sich dieses Problem lösen?

PK: BICC sollten möglichst eine zweistufige Landschaft schaffen: eine für die schnellen „ungenauen“ Umsetzungen („quick and dirty“) und eine für die Standard BI mit längerer Umsetzungszeit und guter Datenqualität, Nachvollziehbarkeit, Metadatenmanagement sowie Datensicherheit. Selbstverständlich haben gewisse Branchen höhere Data-Governance-Anforderungen, aber auch diese müssen Wege finden das Self-Service-Feld mit Schnelligkeit zu verbinden.

Der Spagat dabei ist, dass explorative Werkzeuge für die schnelle Datenanalyse oft noch nicht ausgereift genug sind. Es ist zum Beispiel sehr schwer in ein Hadoop-Cluster eine Security-Schicht einzuführen. Das wird aller Voraussicht auch nicht kurzfristig gelöst werden. Deshalb nutzen viele Unternehmen den Deckmantel von „Prototypen“, obwohl sie mit solchen Werkzeugen schon Projekte machen. Dieser Status erlaubt ihnen eine größere Flexibilität.


Welche Technologietrends beeinflussen die BI-Strategie besonders stark?

PK: Eine große Herausforderung für BI Strategie und BICC sind die neuen Datenquellen besonders in Form des „Internet der Dinge“ (Internet of things –IoT). IoT-Daten sind hochvoluminös und haben oft einen sehr geringen Strukturierungsgrad. Eine Lösung dieses Problems ist die vermehrte Nutzung von Cloud-Technologien (siehe Abbildung 3). IoT-Daten liegen ja meist schon in der Cloud. Man muss sich also die Frage stellen, ob die analytischen Funktionen zu den Daten gelangen oder umgekehrt? Abfrageperformance und Security bleiben derzeit dabei noch zu diskutierende Themen. Es gibt aber hierzulande inzwischen Datenschutzmechanismen und genug Angebote für deutsche Server.

Die alte Grundsatzdiskussion ist abgehakt. Viele deutsche Unternehmen haben sich für die Cloud geöffnet. Richtungsweisend könnte dabei die Entwicklung in den USA sein. Dort wird inzwischen jeder dritte Dollar im Neu-Lizenzgeschäft mit Cloud-Technologie verdient, in Deutschland ist es jeder zwanzigste.


Danke für das Gespräch, Herr Keller!

Das Gespräch führte Axel Bange, Herausgeber von BI Scout. Kontakt: redaktion@bi-scout.com


Weiterführende Links

BARC BI Manager - BI Strategie 2.0

BARC Congress für Business Intelligence & Big Data

Beitrag Patrick Keller: Self Service BI statt Wartezeiten

BARC-News: Cloud BI weiter auf dem Vormarsch

BARC-Studie: BI und Datenmanagement in der Cloud: Treiber, Nutzen und Herausforderungen





Abbildung 2: Aktuelle Abgrenzung der Data Discovery von anderen BI-Prozessen

Abbildung 3: Cloud-interessierte BI-Zielgruppe