Bereit für Big Data

Nach über einhundert Jahren ist immer noch die Verarbeitung von Daten das Hauptgeschäft der IT. Die Entwicklung und die Architektur von IT-Systemen sowie die weltweite Vernetzung standen lange im Zentrum der Aufmerksamkeit. Jetzt hat die IT-Industrie ihr ursprüngliches Thema, die Verarbeitung von Daten, wieder neu entdeckt. Mit Big Data hat die Renaissance der Datenverarbeitung einen unwiderstehlichen Titel. Interessant ist das Thema, weil

  • Daten überall gespeichert werden,
  • die Inhalte interpretierbar sind und
  • die geschickte Frage schwierig zu finden ist.

Big Data bietet Mittel, um die Riesenmengen an Daten zu verarbeiten, die Auswertung der Inhalte zu erleichtern und die Formulierung der Fragen zu vereinfachen. An was muss man als Anwender denken, um bereit zu sein für Big Data?

BigData Lupe

  • Daten sind überall
    Trotz längjähriger Konsolidierung und Standardisierung der IT sind die Daten des Unternehmens immer noch in unterschiedlichen Systemen und Formaten, auf verschiedenen Medien und vielfältig mit Passworten geschützt gespeichert. Zusätzlich sind die Stammdaten, wie z.B. Kunden- oder Produktdaten, immer noch redundant in mehreren Datenbanken gespeichert, die von verschiedenen Verantwortlichen kontrolliert werden. Die Datenqualität (z.B. Richtigkeit, Vollständigkeit, Konsistenz oder Aktualität) ist nur schwerlich bewertbar. Am Ende werden Äpfel mit Birnen gemischt und dann ausgewertet. Diese Nachteile werden sich durch Big Data verstärken – nach dem Motto: Faster Disaster.
  • Daten sind interpretierbar
    Die Auslegung der Inhalte hängt von mehreren Aspekten ab. Eigentlich kennen nur die ursprünglichen Ersteller der Daten deren anfänglichen Zweck. Im Laufe der Zeit nutzen andere Mitarbeiter diese Daten für das tägliche Geschäft. Sie aktualisieren die bestehenden Daten und fügen weitere Inhalte mit ihrer eigenen Interpretation hinzu. Von Zeit zu Zeit werden die Daten ausgewertet, verdichtet und in Tabellen und Grafiken aufbereitet. Die Analysten interpretieren die Ergebnisse und leiten neue Erkenntnisse daraus ab. Im Rückblick werden sich die Beteiligten nicht mehr erinnern können, was ihr ursprüngliches Verständnis der Daten war. Das Gleiche wird mit den neuen Big Data noch besser und schneller stattfinden.
  • Geschickt zu fragen ist schwierig
    Neue Ansätze, wie z.B. Data-Mining, bieten die Möglichkeit Daten ohne eindeutige Fragestellungen zu durchsuchen. Dabei finden Programme Muster in den Daten, die im Anschluss geprüft werden. Dies deckt ungewöhnliche Musterungen auf, die sich aus häufiger Wiederholung von Betrugsfällen ergeben. Auf dieser Basis können dann konkrete Fragestellungen formuliert werden, z.B. was hat Kunde XY noch gekauft und nicht bezahlt. Für den wirksamen Einsatz von Big Data müssen die Anwender lernen SMARTe Fragen zu stellen: Spezifisch, Messbar, Adäquat, Relevant und Testbar Bevor die Auswertung gestartet wird, sollten die Indikatoren der Antworten, festgelegt werden. Schließlich werden das Format des Berichts und die Struktur des Ergebnisses festgelegt. Die so erzielten Erkenntnisse lassen sich leichter im Geschäft verwenden.

Fazit: Es wäre ein verhängnisvoller und teurer Fehler Big Data als einen Automatismus zu verstehen, der von alleine Ergebnisse für die betrieblichen Aufgaben findet. Die Datenmenge verdoppelt sich alle zwei Jahre. Damit werden wir uns weltweit bis 2020 laut IDC http://ow.ly/Ao5v7 mit 40 Zettabytes auseinandersetzen müssen. Jetzt ist ein guter Moment sich fit zu machen für Big Data.