Schlagwort-Archive: Interpretation

Bereit für Big Data

Nach über einhundert Jahren ist immer noch die Verarbeitung von Daten das Hauptgeschäft der IT. Die Entwicklung und die Architektur von IT-Systemen sowie die weltweite Vernetzung standen lange im Zentrum der Aufmerksamkeit. Jetzt hat die IT-Industrie ihr ursprüngliches Thema, die Verarbeitung von Daten, wieder neu entdeckt. Mit Big Data hat die Renaissance der Datenverarbeitung einen unwiderstehlichen Titel. Interessant ist das Thema, weil

  • Daten überall gespeichert werden,
  • die Inhalte interpretierbar sind und
  • die geschickte Frage schwierig zu finden ist.

Big Data bietet Mittel, um die Riesenmengen an Daten zu verarbeiten, die Auswertung der Inhalte zu erleichtern und die Formulierung der Fragen zu vereinfachen. An was muss man als Anwender denken, um bereit zu sein für Big Data?

BigData Lupe

  • Daten sind überall
    Trotz längjähriger Konsolidierung und Standardisierung der IT sind die Daten des Unternehmens immer noch in unterschiedlichen Systemen und Formaten, auf verschiedenen Medien und vielfältig mit Passworten geschützt gespeichert. Zusätzlich sind die Stammdaten, wie z.B. Kunden- oder Produktdaten, immer noch redundant in mehreren Datenbanken gespeichert, die von verschiedenen Verantwortlichen kontrolliert werden. Die Datenqualität (z.B. Richtigkeit, Vollständigkeit, Konsistenz oder Aktualität) ist nur schwerlich bewertbar. Am Ende werden Äpfel mit Birnen gemischt und dann ausgewertet. Diese Nachteile werden sich durch Big Data verstärken – nach dem Motto: Faster Disaster.
  • Daten sind interpretierbar
    Die Auslegung der Inhalte hängt von mehreren Aspekten ab. Eigentlich kennen nur die ursprünglichen Ersteller der Daten deren anfänglichen Zweck. Im Laufe der Zeit nutzen andere Mitarbeiter diese Daten für das tägliche Geschäft. Sie aktualisieren die bestehenden Daten und fügen weitere Inhalte mit ihrer eigenen Interpretation hinzu. Von Zeit zu Zeit werden die Daten ausgewertet, verdichtet und in Tabellen und Grafiken aufbereitet. Die Analysten interpretieren die Ergebnisse und leiten neue Erkenntnisse daraus ab. Im Rückblick werden sich die Beteiligten nicht mehr erinnern können, was ihr ursprüngliches Verständnis der Daten war. Das Gleiche wird mit den neuen Big Data noch besser und schneller stattfinden.
  • Geschickt zu fragen ist schwierig
    Neue Ansätze, wie z.B. Data-Mining, bieten die Möglichkeit Daten ohne eindeutige Fragestellungen zu durchsuchen. Dabei finden Programme Muster in den Daten, die im Anschluss geprüft werden. Dies deckt ungewöhnliche Musterungen auf, die sich aus häufiger Wiederholung von Betrugsfällen ergeben. Auf dieser Basis können dann konkrete Fragestellungen formuliert werden, z.B. was hat Kunde XY noch gekauft und nicht bezahlt. Für den wirksamen Einsatz von Big Data müssen die Anwender lernen SMARTe Fragen zu stellen: Spezifisch, Messbar, Adäquat, Relevant und Testbar Bevor die Auswertung gestartet wird, sollten die Indikatoren der Antworten, festgelegt werden. Schließlich werden das Format des Berichts und die Struktur des Ergebnisses festgelegt. Die so erzielten Erkenntnisse lassen sich leichter im Geschäft verwenden.

Fazit: Es wäre ein verhängnisvoller und teurer Fehler Big Data als einen Automatismus zu verstehen, der von alleine Ergebnisse für die betrieblichen Aufgaben findet. Die Datenmenge verdoppelt sich alle zwei Jahre. Damit werden wir uns weltweit bis 2020 laut IDC http://ow.ly/Ao5v7 mit 40 Zettabytes auseinandersetzen müssen. Jetzt ist ein guter Moment sich fit zu machen für Big Data.

Ready for Big DATA

After more than one hundred years, the processing of data is still the main business of IT. The development and the architecture of IT-systems as well as the world-wide networking were at the center of the attention for a long time. Now the IT-industry rediscovered its original topic, the processing of data. With Big Data the renaissance of data processing has an irresistible title. The topic is interesting, because

  • Data is stored everywhere,
  • Contents are interpretable, and
  • the skillful question is difficult to find.

Big DATA offers remedies, in order to process the giant quantities of data, to facilitate the evaluation of contents and to simplify the formulation of the questions. What do the users have to consider in order being ready for Big DATA?

BigData Lupe

  • Data is everywhere
    Despite long-term consolidation and standardization of the IT, the corporate data is still saved in various systems and formats, on different media, and protected in various ways by passwords. Additionally the master data, like e.g. customer or product data are still stored redundantly in several databases that are controlled by different responsible executives. The data quality (e.g. correctness, completeness, consistency or timeliness) is difficult to assess. Eventually, apples are mixed with oranges and then evaluated. These disadvantages will be amplified by Big DATA – following the slogan: Faster Disaster.
  • Data is interpretable
    The interpretation of contents depends on several aspects. Actually, only the original creators of data know their initial purpose. Over time other employees use this data for daily business. They update the existing and add further contents with their own interpretation. Occasionally, the data will be evaluated, consolidated and prepared in tables and diagrams. The analysts interpret the results and derive new insights from it. In retrospect, the participants will not be able to remember, what their original understanding of the data was. The same will happen better and faster with the new Big DATA.
  • It is difficult to ask skillfully
    New approaches, like Data Mining, offer the possibility to search through data without distinct questions. Thereby, programs find patterns that will be examined afterwards. This unveils regular patterns that result from frequent repetition of fraud. On this basis concrete questions can be formulated, e.g. what did customer XY buy and did not pay. For the effectual use of Big DATA the users must learn to ask SMART questions: Specific, Measurable, Adequate, Relevant and Testable Before you start the examination, the indicators of the answers should be specified. Eventually, the format of the report and the structure of the result are determined. The achieved insights can be used more easily in the business.

Bottom line: It would be a fatal and expensive error to consider Big DATA as an automatism that provides the solutions for the operational tasks. The amount of data doubles itself every two years. Therefore we will have to deal globally by 2020 with 40 zettabytes according to IDC http://ow.ly/Ao5v7 . Now is a good moment to make yourself ready for Big DATA.