Data First – datengetriebene Prozesse
Vertrauen ist eine Voraussetzung, um Akzeptanz für den Einsatz neuer Lösungen zu schaffen und das Thema KI zu entmystifizieren. Eine konsequente „Data First“-Strategie hilft, dieses Vertrauen auch bei komplexen Prozessen oder nicht nachvollziehbaren Entscheidungsfindungen aufzubauen.
Daten sind eine wertvolle Ressource, die genutzt werden kann, um Entscheidungen oder Vorhersagen zu treffen und um Muster zu erkennen.
Theoretische Modelle können durch Daten verifiziert und neue Modelle aus Mustern entwickelt werden. Durch Simulation können neue Daten generiert werden, die unabhängig von gemessenen oder messbaren Daten Aussagen über die Effizienz von Prozessen und deren Risiken ermöglichen.
Insbesondere bietet Simulation die Möglichkeit, durch Änderung von Parametern Erkenntnisse sowohl über die Qualität von Modellen als auch über die Robustheit von Systemen zu gewinnen.
Diese Option geht weit über die Grenzen realer Möglichkeiten hinaus.
Eine konsequente Modularisierung von Prozessen mit Definitions- und Wertebereich für jedes Modul stellt sicher, dass weder der Bezug zum beschriebenen Modell noch zur Wirklichkeit verloren geht.
Zu einer sauberen Definition von Daten gehört zunächst die Beschreibung von sogenannten Stammdaten. Daten, die sich selten ändern und Informationen z. B. über Personen, Orte oder Dinge darstellen. Zu jedem dieser Objekte gehört eine Liste von Attributen, die das Objekt beschreiben.
Meta-Daten beschreiben die Attribute und geben Informationen über deren Inhalt, Struktur und Format.
Zwischen den Objekten können Beziehungen mit verschiedenen Eigenschaften definiert werden. Z.B. Richtung, Gewicht, Typ oder Label.
Prozessdaten sind Daten, die Informationen über den Fortschritt von Prozessen enthalten.
In einer ereignisgesteuerten Prozesskette ist jedes Ereignis ein Zustand, der vor oder nach einer Funktion auftritt. Eine Funktion ist eine Aktion oder Aufgabe, die auf ein Ereignis folgt.
Beim Einsatz neuer Techniken sollten Prozessereignisse einfach nachvollziehbar und sauber in den Prozessdaten dokumentiert sein. Die Trennung von Modulen mit lokalen Daten innerhalb des Moduls und globalen Daten zur Steuerung und Überwachung der Prozesse minimiert Abhängigkeiten, vereinfacht den Austausch und den Test einzelner Module und ermöglicht die Parallelisierung einzelner Funktionen.
Es gibt eine langjährige Erfahrung mit der Modularisierung von Prozessen mit verteilter Datenspeicherung. Eine konsequente Kapselung der Module mit der Verantwortung für ein Schreiben von globalen Daten auf Transaktionsebene schafft die Basis für konsistente Daten auf Prozessebene.
Eine Orchestrierung über KI-gestützte Expertensysteme erlaubt einen eleganten und fehlerfreien Einsatz beliebig komplexer Systeme in der Praxis.
Anwender solcher Systeme müssen nicht die Komplexität einzelner Module verstehen. Sie sollten aber sehr wohl klar entscheiden können, ob die messbaren Ergebnisse ihre Erwartungen erfüllen.
Ein Warenfluss, bei dem der Besitzübergang vom Lieferanten an den Kunden oder die erfolgreiche Einlagerung eines Artikels an den Anwender gemeldet werden, ist ein einfaches Beispiel für diese Nachvollziehbarkeit.
Über Den Autor
Dipl.-Math. Jürgen Bartling hat langjährige Erfahrung im Bereich IT und Information Management als Ausbilder, Geschäftsführer, CIO und Berater. Gemäß seinem Motto „Simplicity and Speed by Data Driven Processes“ ist er davon überzeugt, dass eine konsequente Modularisierung von Anwendungen und Prozessen erst durch eine von Programmen unabhängige Datenschicht möglich wird.
Diese Modularisierung sieht er als Voraussetzung für eine zukunftsfähige Mensch-Maschine-Kommunikation und den effektiven Einsatz von KI.
Schreibe einen Kommentar