Schlagwort-Archive: Daten

Der eigentliche Grund für BPM

Die Zeit vergeht und die Belegschaft arbeitet Schritt für Schritt, bis sie fertig sind. Fertig sein heißt, dass Kunden, die bereit sind, Geld für das Ergebnis auszugeben, die Leistung erhalten. Die wenigsten, die daran mitarbeiten, haben das Glück, direkt mit dem zahlenden Endkunden in Kontakt zu stehen. Meistens haben sie interne „Kunden“, die der Leistung ihren Teil der Wertkette beisteuern. Der gesamte Ablauf wird bestimmt durch die einzelnen Personen, die sich daran beteiligen. In den vergangenen Jahrzehnten haben wir gelernt, dass die bewusste Gestaltung dieser Abläufe, der Geschäftsprozesse, viele Vorteile für alle haben: die Mitarbeiter wissen, was zu tun ist und die Verantwortlichen können den Prozess steuern. In manchen Fällen nehmen sich Unternehmen die Abläufe zum ersten Mal vor. In anderen Fällen erfolgt die Gestaltung zum x-ten Male. Warum betreiben sie diesen Aufwand für Business Process Management (BPM)?

Für die Ausarbeitung der Geschäftsprozesse gibt es viele Begründungen.

  • Silos in Tunnel umkippen
    Die Überwindung der Silogrenzen ist ein Hauptgrund für BPM – Doppelarbeit verschwindet, Verzögerungen beim Grenzübertritt entfallen, Siloegoismen werden aufgelöst. Auch der Tunnel hat seine Begrenzungen, die sich jedoch an den Ergebnissen und den Kunden ausrichten. Das ist jedoch nicht der wesentliche Grund für BPM.
  • Daten fließen lassen
    Die Flut an Informationen wird zukünftig weiter steigen, da immer mehr Abläufe digital transformiert werden müssen – Automatisierung der Abläufe; Digitalisierung der Leistungen; netzbasierter Zugriff auf alles, jederzeit und überall. Das ist jedoch nicht der wesentliche Grund für BPM.
  • Neutrale Einstufung zu erhalten
    Es ist schwer einzuschätzen, wie stark sich einzelne Personen anstrengen. Noch schwieriger wird es, wenn es sich um alle Mitarbeiter eines großen Unternehmen dreht. Die Lösung der vergangenen Jahre ist die Zertifizierung durch einen neutralen Dritten. Die Abläufe sind dabei für alle Beteiligten ein günstiges Ziel – sobald die Abläufe beschrieben sind, werden sie ja auch gelebt – oder nicht. Das ist jedoch nicht der wesentliche Grund für BPM.
  • IT-Lösungen zu ermöglichen
    Eine konkrete Manifestation der Abläufe findet sich in den IT-Systemen. Da die Vorgehen in ablauffähigen Programmcode verschlüsselt werden, müssen spätestens hier eindeutige Abläufe Das ist jedoch nicht der wesentliche Grund für BPM.
  • Ressourcen neu zu verteilen
    Die Aufbauorganisation wird weiterhin das wichtigste Werkzeug zur Verteilung von Hilfsmitteln und Rohstoffen bleiben. Die Nähe zur Wertschöpfung spricht jedoch dafür, die Mitarbeiter und Mittel für die Erbringung der Leistungen, eher einem Prozess zuzuordnen, da sie so besser mit den Ergebnissen abgeglichen werden können. Solange beide Ansätze verfolgt werden, müssen sich die Entscheider damit abfinden, dass sie keine konsistenten Zahlen für ihre Entscheidungen erhalten. Das ist jedoch nicht der wesentliche Grund für BPM.
  • Abläufe zu beschreiben
    Ohne die Beschreibung der Prozesse fehlt allen Protagonisten im Geschäft die sachliche Grundlage, um die Abläufe zu besprechen, bewerten oder zu ändern, klare Zuordnungen der Ressourcen und Daten zu ermöglichen, zertifiziert zu werden und die IT zu realisieren. Nur Druckbares ist Wahres. Das ist jedoch nicht der wesentliche Grund für BPM.

So sinnig, wie alle diese Begründungen sind, so sind sie doch immer nur Mittel zum Zweck. Am Ende geht es nicht um die Beschreibung des Ablaufs, sondern um das tatsächliche Geschäft. Der wesentliche Grund für BPM ist:

Kunden
zuverlässig angemessene Leistungen
auf Basis angewandter Best-Practice
zu liefern.

Dies geht nur, wenn die Kundenwünsche entlang der Wertschöpfung allen bekannt sind und die jeweils besten Abläufe durchgängig angewendet werden, um den Kunden die Leistung zu liefern, die sie bereit sind zu bezahlen. Die folgenden Aspekte unterstützen den wesentlichen Grund für BPM.

  • Nur das machen, was gefordert ist – nicht weniger
    Jeder Prozess hat Kunden: intern die Nachbarabteilung, die von fehlerfreien Inputs profitiert, obwohl sie nichts dafür bezahlt; externe Institutionen, die Anspruch auf Berichterstattung haben; und vor allem die Kunden, die das Ganze mit ihrer Bezahlung finanzieren.
  • Mit minimalem Aufwand, die Anforderungen erfüllen
    In allen Fällen gilt es nur das zu tun, was die Abnehmer einer Leistung tatsächlich benötigen: alle Mitarbeiter müssen ihren Beitrag zur Vermeidung von Fehlern leisten, damit nicht andauernd nachgearbeitet werden muss; das Finanzamt und die Aktionäre haben einen Anspruch auf korrekte Berichterstattung; die Kunden bestimmen die erforderliche Qualität durch ihre Bezahlung und anhaltende Loyalität.
  • Carpe diem
    Abläufe sind vor allem geprägt durch ihre Geschwindigkeit. Es geht nicht um maximale Beschleunigung, da dies zu schwer beherrschbaren Situationen führen würde. Auch die sich auflösende Strömung ist nicht wünschenswert, da dadurch die zeitgerechten Ergebnisse unmöglich werden. Ziel ist es das Gefälle so einzustellen, damit schnell und pünktlich möglichst viele Ergebnisse geliefert werden.
  • Das Sehenswerte erkennen zu können
    So früh wie möglich auf einen hinderlichen Vorfall reagieren zu können, erfordert Sichtbarkeit der aktuellen Situation. Selbst der solistische Handwerksmeister hat gleichzeitig mehrere Werkstücke in Arbeit. In Unternehmen ist es eine unbeschreiblich große Anzahl von Vorgängen, die gleichzeitig ablaufen. Die einzige Chance für einen Überblick bietet der gestaltete Ablauf – gepaart mit einer zeitgemäßen Herangehensweise an die sich ergebende Flut von Daten.
  • Wieder und wieder und wieder
    Nicht die Anzahl der Abläufe ist entscheidend, sondern die Tatsache, dass diese Prozesse wiederholt ablaufen – möglichst immer gleich. Auf der einen Seite rechnet sich dadurch der Aufwand der Gestaltung der Abläufe. Auf der anderen Seite erzeugt die Wiederholung des immer gleichen Ablaufs bei den Mitarbeitern Routine und Sicherheit, was der Güte der Ergebnisse zugutekommt.

Fazit: Während in der Vergangenheit die Wertkette überwiegend innerhalb des Werkzauns stattgefunden hat, so haben wir heute eine hochgradige, weltweite Vernetzung von Unternehmen aller Größen. Das verbindende Element ist der Geschäftsprozess, der beim Kunden beginnt und endet. Der Ablauf wird nicht durch die druckbare Beschreibung wichtig, sondern durch die gelebte Umsetzung, die sich Mensch und Maschine teilen. Der Mensch ist dabei der entscheidende Faktor, da selbst die Maschinen den menschlichen Bediener brauchen. Ohne die Mitarbeiter einzubinden, werden nur die Büros mit A0-Plots tapeziert und die Gestaltung der Prozesse findet fernab des Geschäfts im Elfenbeinturm statt. Sie sollten nicht den wesentlichen Grund für BPM mit dem falschen Schwerpunkt unterminieren: Kunden zuverlässig angemessene Leistungen auf Basis gelebter Best-Practice zu liefern.

Bereit für Big Data

Nach über einhundert Jahren ist immer noch die Verarbeitung von Daten das Hauptgeschäft der IT. Die Entwicklung und die Architektur von IT-Systemen sowie die weltweite Vernetzung standen lange im Zentrum der Aufmerksamkeit. Jetzt hat die IT-Industrie ihr ursprüngliches Thema, die Verarbeitung von Daten, wieder neu entdeckt. Mit Big Data hat die Renaissance der Datenverarbeitung einen unwiderstehlichen Titel. Interessant ist das Thema, weil

  • Daten überall gespeichert werden,
  • die Inhalte interpretierbar sind und
  • die geschickte Frage schwierig zu finden ist.

Big Data bietet Mittel, um die Riesenmengen an Daten zu verarbeiten, die Auswertung der Inhalte zu erleichtern und die Formulierung der Fragen zu vereinfachen. An was muss man als Anwender denken, um bereit zu sein für Big Data?

BigData Lupe

  • Daten sind überall
    Trotz längjähriger Konsolidierung und Standardisierung der IT sind die Daten des Unternehmens immer noch in unterschiedlichen Systemen und Formaten, auf verschiedenen Medien und vielfältig mit Passworten geschützt gespeichert. Zusätzlich sind die Stammdaten, wie z.B. Kunden- oder Produktdaten, immer noch redundant in mehreren Datenbanken gespeichert, die von verschiedenen Verantwortlichen kontrolliert werden. Die Datenqualität (z.B. Richtigkeit, Vollständigkeit, Konsistenz oder Aktualität) ist nur schwerlich bewertbar. Am Ende werden Äpfel mit Birnen gemischt und dann ausgewertet. Diese Nachteile werden sich durch Big Data verstärken – nach dem Motto: Faster Disaster.
  • Daten sind interpretierbar
    Die Auslegung der Inhalte hängt von mehreren Aspekten ab. Eigentlich kennen nur die ursprünglichen Ersteller der Daten deren anfänglichen Zweck. Im Laufe der Zeit nutzen andere Mitarbeiter diese Daten für das tägliche Geschäft. Sie aktualisieren die bestehenden Daten und fügen weitere Inhalte mit ihrer eigenen Interpretation hinzu. Von Zeit zu Zeit werden die Daten ausgewertet, verdichtet und in Tabellen und Grafiken aufbereitet. Die Analysten interpretieren die Ergebnisse und leiten neue Erkenntnisse daraus ab. Im Rückblick werden sich die Beteiligten nicht mehr erinnern können, was ihr ursprüngliches Verständnis der Daten war. Das Gleiche wird mit den neuen Big Data noch besser und schneller stattfinden.
  • Geschickt zu fragen ist schwierig
    Neue Ansätze, wie z.B. Data-Mining, bieten die Möglichkeit Daten ohne eindeutige Fragestellungen zu durchsuchen. Dabei finden Programme Muster in den Daten, die im Anschluss geprüft werden. Dies deckt ungewöhnliche Musterungen auf, die sich aus häufiger Wiederholung von Betrugsfällen ergeben. Auf dieser Basis können dann konkrete Fragestellungen formuliert werden, z.B. was hat Kunde XY noch gekauft und nicht bezahlt. Für den wirksamen Einsatz von Big Data müssen die Anwender lernen SMARTe Fragen zu stellen: Spezifisch, Messbar, Adäquat, Relevant und Testbar Bevor die Auswertung gestartet wird, sollten die Indikatoren der Antworten, festgelegt werden. Schließlich werden das Format des Berichts und die Struktur des Ergebnisses festgelegt. Die so erzielten Erkenntnisse lassen sich leichter im Geschäft verwenden.

Fazit: Es wäre ein verhängnisvoller und teurer Fehler Big Data als einen Automatismus zu verstehen, der von alleine Ergebnisse für die betrieblichen Aufgaben findet. Die Datenmenge verdoppelt sich alle zwei Jahre. Damit werden wir uns weltweit bis 2020 laut IDC http://ow.ly/Ao5v7 mit 40 Zettabytes auseinandersetzen müssen. Jetzt ist ein guter Moment sich fit zu machen für Big Data.