Hadoop ermöglicht Anwendungsfälle, die bisher nicht umgesetzt werden konnten
Anwender sehen Hadoop vor allem als (potentielle) Technologie zur Umsetzung neuartiger Anwendungsfälle, die mit den bestehenden Systemen nicht umgesetzt werden können. Kosteneinsparungen spielen eine nachgelagerte Rolle, wie auch der Einsatz als technisch bessere Plattform.
Die größten Herausforderungen sind fehlendes Know-how und Unsicherheit in den Nutzungsmöglichkeiten von Hadoop. Seit der letzten Hadoop-Umfrage scheint nicht viel geschehen zu sein! Fehlendes fachliches und technisches Know-how führen klar die Liste der Herausforderungen an. Europäische Unternehmen sind darüber hinaus noch unklar über den richtigen Einsatz und die Nutzung, während nordamerikanische Firmen eher fehlende Benutzerfreundlichkeit, mangelnde Reife des Systems sowie hohe Kosten für Schulung und Entwicklung bemängeln.
Dem Hype folgt die Ernüchterung und damit wächst die Erkenntnis, dass Hadoop und Data Lakes nicht das Allheilmittel für analytische Aufgaben sind. Auf der anderen Seite steckt aber auch viel Potenzial in der Technologie und in dem Konzept. Es bleibt einzufordern, dieses Bild weiter zu schärfen und Einsatz und Nutzen von Hadoop und Data Lakes anhand realer Erfahrungen transparenter und greifbarer zu machen. Denn dies scheint nach wie vor eine der größten Herausforderungen in der Diskussion zu sein. Um der Unsicherheit ein Stück weit entgegenzuwirken, hat BARC im Vorfeld der Umfrage einige provokante Thesen zu Hadoop und dem Data-Lake-Konzept gesammelt, diese wurden dann zum einen mit den Ergebnissen der Umfrage verglichen und durch Kommentare der BARC-Analysten bewertet.
Insbesondere für den Aufbau neuartiger Anwendungen im Kontext der Digitalisierung scheint es ratsam, das Für und Wider von Hadoop zu untersuchen. Am Anfang stehen die analytischen Anwendungsfälle. Erst diese definieren die Anforderungen an Daten, Architektur, Funktionen und Organisation und geben den Bewertungsrahmen für Technologien vor. Eine schnelle, effiziente Aufnahme und Strukturierung potenzieller Anwendungsfälle bietet BARC mit dem bewährten Beratungs-Standardprodukt „Use Case Identifizierung“. In diesem Verfahren werden die Use Cases des Unternehmens erfasst, priorisiert und Anforderungen an die Umsetzung entlang der genannten Dimensionen festgelegt um daran Technologien wie Hadoop besser bewerten zu können.
Marktübersicht
Nach wie vor ist die Diskussion um Hadoop topaktuell. Das Hadoop-Ökosystem gilt als technologischer Wegbereiter, der es Unternehmen ermöglicht, die Früchte der Big-Data-Revolution ernten zu können. Das zentrale Versprechen lautet: fast beliebig große Datenmengen aus unterschiedlichsten Systemen, mit beliebiger Struktur, schnell, effizient und kostengünstig verwalten, nutzen und auswerten zu können. Eine Quelle für alle Formen analytischer Aufgabenstellungen, eine Art technologisches Rückgrat der Digitalisierung – quasi ein Wundermittel der modernen Zeit.
Auch wenn die Technologie Hadoop noch mit vielen Fragezeichen behaftet ist, sehen wir erste Anwendungsfälle und Erfahrungsberichte am Markt im Umgang mit der Technologie. Die Use Cases helfen, zwischen medialer Überhöhung, tatsächlich realisierbarem Mehrwert und Herausforderungen zu unterscheiden.
Einen wertvollen Einblick liefert die von BARC erst kürzlich veröffentlichte Anwenderbefragung „Hadoop und Data Lakes: Use Cases, Nutzen und Grenzen“, (www.barc.de/hadoop-data) die den Status quo von Hadoop-Initiativen und Erfahrungen aus Hadoop Use Cases weltweit untersucht hat. Die Kernergebnisse sind die Folgenden:
Hadoop - Trendtechnologie mit hohem Potenzial
Die produktive Nutzung von Hadoop nimmt vor allem in Europa zu, aber auch gleichzeitig die Anzahl der Unternehmen, die Hadoop nicht nutzen wollen. Mit wachsendem Verständnis des möglichen Nutzens eines Hadoop-Einsatzes können Unternehmen offensichtlich klarer entscheiden, ob sie die Technologie einsetzen möchten oder nicht. Das Profil der produktiven Hadoop-Systeme ist überraschend breit: Hadoop wird unabhängig von Unternehmensgröße, Datenvolumen, Datentypen oder auch Aktualitätsanforderungen eingesetzt. Damit ist es für alle Unternehmen eine potentiell geeignete Technologie mit breitem Einsatzspektrum. Hadoop entwickelt sich dabei immer mehr vom einfachen Dateisystem zur Ablaufumgebung für analytische Anwendungen.
BICC und Data Science Teams treiben Hadoop- und Data-Lake-Projekte
Im Wesentlichen sind es BI Competence Center und auch Data Science Teams, die heute Hadoop- und Data-Lake-Projekte treiben und damit den technologischen Themen Hadoop und Data Lakes einen stärkeren fachlichen Bezug geben.
Umsetzung erfolgt hauptsächlich durch kommerzielle Werkzeuge und Hadoop-Distributionen
Kommerzielle Werkzeuge und Distributionen überzeugen in den meisten Werkzeugkategorien vor den Apache-Hadoop-Komponenten und werden auch deutlich häufiger eingesetzt. Kosteneinsparungen und Flexibilität in der Anwendungsentwicklung sind mehrheitlich genannte Gründe für den Einsatz von Apache Hadoop.
Klarer Fall für Hadoop: Customer Intelligence und Predictive Analytics
Customer Intelligence und Predictive Analytics sind die mit Abstand am häufigsten umgesetzten Hadoop-Projekte. Hadoop weist den deutlichsten Nutzen auf in der Analyse von Daten aus heterogenen, divergenten Quellen, Vorhersage des Kundenverhaltens, Kundenbindung, sowie in der Steigerung der Flexibilität. Hadoop nimmt in den Projekten nicht nur die Rolle des Dateisystems ein, sondern fungiert als Plattform und Ablaufumgebung mit den Kernfunktionen in Analyse und Predictive Analytics.
Timm Grosser ist Head of Consulting und Senior Analyst am Business Application Research Center (BARC) mit den Schwerpunkten auf BI, Datenmanagement und Big Data. Seine Kernkompetenzen sind entscheidungsunterstützende Informationssysteme mit einem besonderen Fokus auf strategische Themen im Datenmanagement und Big Data. Er unterstützt Unternehmen in der Definition und Umsetzung ihrer BI- und Big-Data-Strategie, -Organisation, -Architektur und -Werkzeugauswahl Er ist ein gefragter Redner auf Konferenzen und Seminaren sowie Autor zahlreicher BARC-Marktstudien und Fachartikel.
Das Business Application Research Center (BARC) ist ein Forschungs- und Beratungsinstitut für Unternehmenssoftware mit Fokus auf die Bereiche Business Intelligence/Analytics, Datenmanagement, Enterprise Content Management (ECM), Customer Relationship Management (CRM) und Enterprise Ressource Planning (ERP).
BARC-Analysten unterstützen seit 20 Jahren Unternehmen bei Strategie, Organisation, Architektur und Evaluationsfragen in diesen Themengebieten. Dabei vereinen die BARC-Analysten Markt-, Produkt- und Einführungswissen. Know-how-Basis sind die seit Jahren ständig durchgeführten Marktanalysen und Produktvergleichsstudien, die ein umfassendes Detailwissen über den Leistungsumfang aller marktrelevanten Softwareanbieter, neueste Entwicklungen und Best Practices sicherstellen.
BARC formt mit den Analystenhäusern CXP und PAC die führende europäische Analystengruppe für Unternehmenssoftware und IT Services mit Präsenzen in acht Ländern.
Aktuelle Beiträge
-
Künstliche Intelligenz braucht ethische Leitplanken
-
Alternative Data: Warum lohnt sich der Blick über den Daten-Tellerrand?
-
Data Science-Projekte: Drei Hindernisse auf dem Weg zum Erfolg
-
"Es fällt vielen Branchen schwer, die Potenziale der Digitalisierung zu erkennen."
-
Die IBM KI-Leiter: Mit KI ganz nach oben
-
Von einfachen Data Catalogs zu intelligenten Systemen
BI & Big Data Events