Archiv des Autors: memecon

Wenn richtige Ergebnisse falsch sind

Auf einer Informationswelle reitend stellt sich die Frage, was eigentlich gilt. Die IT kämpft von Anfang an mit der Schwierigkeit, Daten aus mehreren Quellen in einem Bericht zusammenzufahren, die gefundenen Daten zu verrechnen und aus den Ergebnissen den finalen Bericht zu erzeugen. Solange es nur einen Bericht gibt, fallen Unstimmigkeiten nicht auf. Berichte aus unabhängig voneinander laufenden IT-Systemen zu gleichen Themen zu erstellen, fördert unvorhersehbare Inkonsistenzen zutage. Hauptursachen sind die verschieden verstandenen und unabhängig voneinander erfassten Datenquellen und -wege.

Zuverlässige Daten erhöhen die Güte eines Berichts.

  • Einen Speicherort
    Redundant gespeicherte Daten führen aufgrund von Fehleingaben unweigerlich zu Inkonsistenzen, unabgestimmten Bedeutungen und unterschiedlichen Stichtagen. Die weltweite Vernetzung ermöglicht die Speicherung von relevanten Berichtsdaten zu einem festgelegten Zeitpunkt an einem Ort. Durch Plausibilitätschecks werden Fehleingaben minimiert. Am Ende sinken die Kosten durch einen Speicherort und zusätzlich durch die vermiedenen Fehler und Nacharbeiten.
  • Einheitliches Datenformat
    Unterschiedliche Formate benötigen vor dem Berechnen, dass sie bereinigt werden (Data Cleansing). Textfelder müssen rechenbar gemacht, uneinheitliche Einheiten umgerechnet (Größenordnungen, wie Tausender oder Millionen; Maßeinheiten wie Meter und Yard; Währungen wie Dollar und Euro) und eine abgestimmte Anzahl Nachkommastellen geliefert werden. Allein die Stichtage beim Festlegen der Wechselkurse verwischen die Werte in Berichten. Vorgegebene Tabellen für das Umrechnen verringern Unstimmigkeiten.
  • Abgestimmte Bedeutung
    An einer Zahl ist nicht erkennbar, was damit ausgedrückt werden soll. Verschiedene Blickwinkel führen zu verzerrten Zahlen und Aussagen. Betrachten wir als Beispiel die Anzahl Mitarbeitenden. Werden nur Festangestellte gezählt? Als Vollzeitäquivalente oder Kopfzahlen? Auch Befristete und Teilzeitkräfte? Zählen Praktikanten? Werden externe Freelancer, Berater und per Arbeitnehmerüberlassene eingerechnet? Der Zweck bestimmt die Zählweise. Möchte sich ein Bereich produktiver rechnen oder sollen die Kopfzahl groß gerechnet werden? Vor dem Erzeugen von internen Reports sollte die Bedeutung des Begriffs Mitarbeiter abgestimmt sein, da ansonsten falsche Schlüsse gezogen werden.
  • Synchronisierte Stichtage
    Berichtszahlen folgen einer lokalen Logik, dienen der örtlichen Führung zur Steuerung und sind bestimmt durch die Bedingungen vor Ort. Dies bedeutet, dass die Erstellung durch die lokalen IT-Systeme und die dazugehörigen Abläufe zu einer Vor-Ort-Aktualität der Daten führen. Werden sie an einem zentral bestimmten Stichtag abgerufen, können sie aufgrund von unterschiedlichen Zeiträumen nicht zusammenpassen. Beispielsweise, wenn die lokalen Monatswerte am letzten Arbeitstag aufgrund unterschiedlicher Zeitzonen variieren – Wellington, Neuseeland versus San Francisco, USA.
  • Vorbereitete Querchecks
    Verfügen wir nur über einen Bericht, bleiben die Fehler unbemerkt. Zusätzliche Infos können zu unterschiedlichen Ergebnissen führen. Ein Hinweis bieten die Summen der Gesamt- oder Bereichsergebnisse, die sich aufgrund der erwähnten Schwierigkeiten am Ende unterscheiden oder aufgrund unterschiedlicher Sichtweisen nicht zueinander passen. Fallen die erwarteten Zahlen zu hoch aus, dann wurden möglicherweise Zahlen doppelt gezählt. Fallen sie zu gering aus, könnten Zahlen falsch ausgelegt worden sein oder einfach fehlen. Querchecks braucht es immer!
  • Fortlaufende Anpassung
    Da Fehler erst im Laufe der Zeit sichtbar werden, sollte die Güte der Daten kontinuierlich beobachtet werden. Sobald Unstimmigkeiten auftreten, sollten sie verstanden und ab dem Folgebericht richtiggestellt sein. Auf diese Weise kommen Sie irgendwann zu einem verlässlichen Berichtswesen.

Fazit: Wenn mehre Datenquellen vorliegen, führen Eingabefehler, fuzzy Erhebungszeitpunkte und unterschiedliches Auslegen von Daten zu nicht nachvollziehbaren Fehlern. Kommt es wiederholt zu Unstimmigkeiten, dann vertrauen die Leser dem Bericht und den Berichtenden nicht mehr. Die Zuverlässigkeit erhöht sich durch EINE Datenquelle, eine abgestimmte und verarbeitbare Datenstruktur, eine eindeutige Bedeutung, einen synchronisierten Stichtag, vorbereitete Querchecks und eine fortlaufende Anpassung, wenn Fehler erkannt werden. Der durchdachte Rechenweg liefert ein richtiges Ergebnis, das falsch ist, wenn die Datenqualität schlecht ist.

When correct results are wrong

Riding an information wave, the question arises as to what is actually valid. Since the beginning, IT has struggled with the difficulty of pulling together data from multiple sources into one report to compute the data found and generate the final report from the results. As long as there is only one report, discrepancies are not apparent. Creating reports from independently running IT systems on the same issues brings unpredictable inconsistencies to light. The leading causes are the differently understood and independently recorded data sources and paths.

Reliable data increases the quality of a report.

  • One storage location
    Redundantly stored data inevitably leads due to erroneous input to inconsistencies, uncoordinated meanings, and different target dates. Global networking allows relevant report data to be stored in one place at a specified time. Plausibility checks minimize inaccurate entries. Eventually, costs are reduced with one storage location and, additionally, through avoiding errors and rework.
  • Standardized data format
    Different formats need to be cleansed (data cleansing) before they can be computed. Text fields need to be made computable, non-uniform units converted (orders of magnitude, such as thousands or millions; units of measure, such as meters and yards; currencies, such as Dollars and Euros), and an agreed number of decimal places supplied. Just deadlines in setting exchange rates blur values in reports. Predefined tables for conversion reduce inconsistencies.
  • Coordinated meaning
    You cannot see in a number what it is supposed to express. Different perspectives lead to distorted figures and statements. Let’s take the number of employees as an example. Are only permanent employees counted? As full-time equivalents or headcounts? Do temporary and part-time employees also count? Do interns count? Do external freelancers, consultants, and personnel leased count? The purpose determines the counting method. Does an area want to be more productive, or should the headcount be high? Before generating internal reports, the meaning of the term employee should be aligned. Otherwise, wrong conclusions will be drawn.
  • Synchronized reporting dates
    Reporting figures follow a local logic, serve the local management for control, and are determined by the conditions on the spot. It means that the creation by the local IT systems and the associated processes lead to an on-site up-to-datedness of the data. If it is retrieved on a centrally determined deadline, it may not match due to different periods. For example, if the local monthly values vary on the last business day due to various time zones – Wellington, New Zealand versus San Francisco, USA.
  • Prepared cross-checks
    Additional info can lead to different results. A hint provides the totals of the overall or unit results, which differ due to the mentioned difficulties or due to the varying views that do not match. If the expected numbers turn out too high, numbers may have been counted twice. If they turn out too low, numbers may have been misinterpreted or are simply lacking. Cross-checks are always needed! If we only have one report, the errors go unnoticed.
  • Continuous adjustment
    As errors only become apparent over time, data quality should be continuously observed. As soon as discrepancies occur, they should be understood and corrected, starting with the following report. In this way, you will eventually get a reliable reporting system.

Bottom line: If multiple data sources are available, input errors, fuzzy checkpoints, and different interpretations of data lead to hardly understood mistakes. If there are repeated mismatches, the readers no longer trust the report and the reporting party. Reliability is enhanced by ONE data source, a reconciled and processable data structure, unambiguous meaning, a synchronized target date, prepared cross-checks, and ongoing adjustment when errors are identified. The well-thought-out calculation path provides a correct result that is wrong if the data quality is poor.