Ein Kernelement von Industrie 4.0 und IoT ist die Möglichkeit zur Sammlung von extrem hohen Datenvolumina in Echtzeit [1]. Um damit Geschäftsprozessoptimierungen zu erreichen, ist es notwendig, Wissen aus diesen Daten zu generieren. Hierzu müssen Voraussetzungen bezüglich Infrastruktur und Organisation geschaffen werden. Dieser Beitrag beschreibt, wie mittels eines Knowledge-Discovery-Prozessmodells in der Produktionslogistik in Kombination mit dem Acatech-I-4.0 Referenzmodell ein Vorgehen abgeleitet werden kann, das mittels Data Analytics Vorteile von Industrie 4.0 systematisch in Geschäftsprozessen nutzbar macht.
Heutzutage sind Unternehmen stärker denn je mit Wettbewerbssituationen konfrontiert. Globalisierung und steigender Marktdruck sind nur zwei dieser Herausforderungen. Um wettbewerbsfähig zu bleiben, müssen nicht nur neue Technologien eingeführt werden, sondern auch Geschäftsmodelle angepasst werden. In diesem Zusammenhang sind Industrie 4.0 (I 4.0) und Internet of Things (IoT, Deutsch „Internet der Dinge“) seit Jahren verbreitete Begriffe, die die Integration von Informations- und Kommunikationstechnologien in die Geschäftsprozesse – und vor allem in die Produktionsprozesse – beschreiben. Um das Beste aus diesen neuen Entwicklungen für das Unternehmen zu machen, ist es wichtig, die Prozesse zusätzlich anzupassen. Mit Industrie 4.0 kann die Entscheidungsfindung beschleunigt werden. Acatech verwendet in der Definition von Industrie 4.0 Begriffe wie Echtzeit, hohes Datenvolumen sowie multilaterale Kommunikation und versteht darunter Vernetzung zwischen Cyber-Physischen Systemen und Menschen [1]. Erst durch die Kombination der technologischen Vorteile mit der richtigen Organisationsstruktur werden Unternehmen agil und bleiben langfristig wettbewerbsfähig. Die Implementierung von Konzepten zu IoT und I 4.0 ist jedoch nicht trivial und viele Anpassungen sind notwendig, was nach wie vor als Hemmschwelle empfunden wird.
Dieser Beitrag präsentiert hierzu ein Modell zur Einführung eines unternehmensweiten Wissensmanagements auf Basis einer IoT-Plattform, um I 4.0-Prinzipien zu nutzen. Der Anwendungsfall bezieht sich dabei in einem ersten Schritt auf die Produktionslogistik in einem Fertigungsnetzwerk, das dreizehn Produktionsstandorte weltweit umfasst.
Begriffe und Definitionen
Mit dem Beginn der vierten industriellen Revolution werden Fertigungssysteme in digitale Ökosysteme („Smart Factories“) umgewandelt. Bei dieser Transformation spielen das IoT und Big Data eine große Rolle. Um in weiterer Folge des Beitrags entsprechend auf das entwickelte Modell eingehen zu können, sollen nachfolgend kurz die wesentlichen Begrifflichkeiten, die sich hinter I 4.0 befinden, definiert werden.
![Bild 1: IoT und IIoT im Kontext von Industrie 4.0 [4]. Bild 1: IoT und IIoT im Kontext von Industrie 4.0 [4].](http://factory-innovation.de/wp-content/uploads/2021/08/altendorfer1.png)
Bild 1: IoT und IIoT im Kontext von Industrie 4.0 [4].
Mit IoT wird die Vernetzung von Gegenständen mit dem Internet verstanden, sodass diese Gegenstände selbstständig kommunizieren und einen physischen Material- oder Produktionsfluss festlegen. Die Verbindung der am Produktionsfluss beteiligten Systeme mit virtuellen softwaretechnischen Komponenten wird als „Cyber-Physisches System“ (CPS) oder „Cyber-Physisches Produktionssystem“ (CPPS) bezeichnet [2] . Auf diese Weise wird der automatisierte Produktionsprozess mit moderner Informations- und Kommunikationstechnik verknüpft.
Dabei werden verschiedene Arten von verfügbaren Daten, digitalen Kommunikationseinrichtungen und Dienstleistungen genutzt [3]. Die Einführung von CPS durch Anwendung von IoT, insbesondere in der Industrie (IIoT), führt jedoch zur Generierung großer Datenmengen (Big Data), die wiederum spezielle Manipulation und Analyse erfordern, um sinnvolle Schlussfolgerungen zu ziehen und den tatsächlichen Wert zu extrahieren [4].
Daten werden immer mehr zum entscheidenden Asset im Unternehmen: in „roher“, also unaufbereiteter Form nutzlos, werden Daten durch die Anwendung komplexer und umfangreicher Verfahren bzw. Analysen zu nützlichen Daten (Smart Data) und somit zu einem entscheidenden Produktionsfaktor im Unternehmen. Um diese Herausforderung zu meistern, sind Big-Data-Analysen ein Hilfsmittel, um die Engpässe zu überwinden, die durch IoT erzeugte Datenmengen entstehen [3].
Der hier beschriebene Einsatz von Big Data und IoT im industriellen Umfeld ist mit Hindernissen verbunden. Neben diesen Ansätzen bedarf es im Unternehmen auch der entsprechenden Infrastruktur und Organisation, um Big Data Analytics umsetzen zu können.
Referenzmodellierung und Reifegradmodelle als Grundlage
Die „Referenzmodellierung“ oder „Referenzinformationsmodellierung“ ist ein spezifisches Feld der Informationsmodellierung und hat Referenzmodelle als Forschungsobjekte mit dem Ziel, für verschiedene, aber ähnliche Anwendungsszenarien wiederverwendet zu werden.
Neben der Einbettung in den Kontext und die Strategie des Unternehmens sind die Organisation, das Modell an sich, die zugrundeliegende Technologie und die ausgewählte Methode wichtig, um ein passendes Modell zu entwickeln [5].
Für verschiedene Bereiche gibt es unterschiedliche Modelle, jedoch konzentriert sich kein Referenzmodell auf die Anpassung von Industrie 4.0.
Daher hat diese Forschungsarbeit die Lücke aufgegriffen und versucht, ein Knowledge-Discovery-Prozessmodell mit den Ansätzen von Industrie 4.0 zu entwickeln. Bezugnehmend auf die IIoT-Plattform und das vorzustellende Knowledge-Discovery-Prozessmodell, ist in der weiteren Beschreibung vor allem der Aspekt der Technologie der Referenzmodellierung interessant.
Jedoch ist die Referenzmodellierung nicht ausreichend, um ein ganzheitliches Knowledge-Discovery-Prozessmodell zu entwickeln. Da jedes Unternehmen in Bezug auf Industrie 4.0 einen anderen Ausgangspunkt aufweist, muss dieser Aspekt mit einfließen. Das Knowledge-Discovery-Prozessmodell geht daher noch einen Schritt weiter und nutzt auch die grundlegenden Ansätze von Reifegradmodellen.
![Bild 2: Industrie 4.0 Reifegradmodell nach Acatech [1]. Bild 2: Industrie 4.0 Reifegradmodell nach Acatech [1].](http://factory-innovation.de/wp-content/uploads/2021/08/altendorfer2.png)
Bild 2: Industrie 4.0 Reifegradmodell nach Acatech [1].
Diese Modelle als Bewertungsmethode bieten einen Ansatz, entlang des Informationsflusses die Qualität der Informationen zu bewerten. Der Reifegrad gibt an, inwieweit ein Objekt bestimmte Eigenschaften aufweist, die die Qualität des Objekts in seiner Gesamtheit bestimmen [6]. Für das Knowledge-Discovery-Prozessmodell ist die Wahl im Rahmen der laufenden Forschung im Kontext von I 4.0 auf ein kontextbezogenes Modell gefallen, das in Bild 2 dargestellt ist.
Dieses Modell bezieht sich auf den Bereich I 4.0 und definiert insgesamt sechs Stufen für den Entwicklungspfad Industrie 4.0. Mit diesem Index- oder Reifegradmodell kann jedes Unternehmen seine aktuelle Situation bewerten und entscheiden, welchen Reifegrad es hat bzw. erreichen möchte, damit das optimale Verhältnis zwischen Kosten und Nutzen erreicht ist. In der beschriebenen Forschung wird das Reifegradmodell als Basis-Reifegradmodell herangezogen und um ein Knowledge-Discovery-Prozessmodell bereichert. Im Folgenden wird jede Stufe des Reifegradindexmodells weiter beschrieben. Des Weiteren wird das Modell mit Fokusthemen basierend auf dem vorgestellten Knowledge-Discovery-Prozessmodell ergänzt.
Knowledge-Discovery-Prozess-modell basierend auf einer IIoT-Plattform
Die aktuelle Version des von Altendorfer-Kaiser und Kormann entwickelten Knowledge-Discovery-Prozessmodells für die Produktionslogistik besteht aus sieben Schritten, um Geschäftsprozesse anhand datenanalytischer Prinzipien in datengesteuerte und digitalisierte Prozesse zu transformieren [8]. Diese sieben Schritte sind Potenzialidentifikation (1), Kosten-Nutzen-Analyse (2) bestimmen, Data Mining (3), Bereitstellung (4), Evaluierung (5), Integration (6) und Wissensmanagement (7). Jeder dieser Schritte umfasst dabei spezielle Aufgaben, die es umzusetzen gilt. Die graphische Darstellung des Knowledge-Discovery-Prozessmodells wird in Bild 3 dargestellt.
Eine grundlegende Voraussetzung, um ein entsprechendes Knowledge-Discovery-Prozessmodell implementieren zu können, ist eine fertigungsnetzwerkübergreifende Big-Data-Plattform (IIoT-Plattform). Diese zeichnet sich durch einheitliche Software- und Hardwareelemente aus, die je nach Use-Case unterschiedlich kombiniert werden können.
Die Hardwareelemente setzen sich aus vier Servertypen zusammen. Diese sind ein Computer-Cluster, ein relationales Datenbankmanagementsystem, ein Applikations- und ein Visualisierungsserver.
Mittels einer solchen Plattform wird eine standardisierte und leistungsfähige Hardware- und Softwarelandschaft zur Verfügung gestellt. Innerhalb dieser können fertigungsnetzwerkübergreifend Analytics-Anwendungen schnell und agil entwickelt werden. Des Weiteren ermöglicht eine solche Plattform, einheitliche Trainingskonzepte umzusetzen, einen Wissensaustausch zwischen den Elementen des Fertigungsnetzwerks zu ermöglichen und optimale Betriebs- bzw. Anschaffungskosten zu gewährleisten.
Das Industrie-Reifegradmodell in Bild 2 beschreibt sechs Reifegrade, die notwendig sind, um die Prinzipien von Industrie 4.0 innerhalb eines Unternehmens und seiner Geschäftsprozesse anzupassen. Die Integration des Knowledge-Discovery-Prozessmodells für die Produktionslogistik und das Industrie 4.0-Entwicklungsmodell erfolgt durch die Definition von Zielen, die in jedem Entwicklungsstadium mittels der Schritte im Prozessmodell erreicht werden müssen.
Im Schritt „Computerisierung“ müssen Voraussetzungen für alle folgenden Schritte gelegt werden. Hier müssen Geschäftsprozess-
anpassungen vorgenommen werden, damit alle relevanten Prozessdaten zur Prozessüberwachung und -verbesserung digital und in Echtzeit verfügbar sind. Die Anpassungen umfassen sowohl Infrastruktur als auch Abläufe. Infrastrukturanpassungen beziehen sich beispielsweise auf die Replikation in Echtzeit von bereits vorhandenen ERP-Rohdaten in die IIoT-Plattform. Prozessanpassungen umfassen die Erstellung und Verwendung von KPIs mit Echtzeitbezug. Der Fokus liegt hier auf dem Bereitstellungs-Schritt. Dadurch entstehen Datensilos innerhalb des Fertigungsnetzwerks, die nicht miteinander verbunden sind.

Bild 3: Knowledge-Discovery-Prozessmodell mit zentraler IoT-Plattform.
Darauf folgt der Schritt „Konnektivität“, in dem die Datensilos zu einem Data-Lake mittels eines einheitlichen Metadatenstamms beliebig verbunden werden. Hier ist der Fokus besonders auf die Schnittstellen zu legen, die die Silos zu einem Lake verbinden. Dieser Schritt umfasst auch die Ausarbeitung und Implementierung eines Data-Governance-Vorgehens, damit keine Daten und daraus generierte Informationen in nicht berechtigte Hände gelangen. Hierunter fallen beispielsweise personenbezogene Daten, die nicht zur Auswertung zur Verfügung stehen dürfen. Kernelement dieser Art von Governance ist der Data Analyst, der Zugang zu allen Daten hat, daraus Informationen generiert und entscheidet, wer Zugriff zu diesen erhält. Implementiert wird diese Einschränkung mittels Zugangseinschränkungen der Resultate und Rohdaten auf der Plattform. Der Fokus ist in diesem Abschnitt folglich auf Integration zu legen.
Mittels des Abschlusses des Schritts „Konnektivität“ ist im Fertigungsnetzwerk ein Data-Lake verfügbar, in dem alle digital verfügbaren Daten analysiert werden können. Damit lassen sich Wirkzusammenhänge erforschen, die zuvor durch getrennte IT-Systemlösungen nicht sichtbar waren. Im Schritt „Sichtbarkeit“ wird folglich eine Toolbox mit Data-Analytics-Lösungen auf der Plattform entwickelt und implementiert. Dies geschieht mittels Durchführung von Pilotanwendungen, womit die Nutzbarkeit von Korrelations-, Ausreißer-, Klassifikations-, Assoziations- und Regressionsanalysen bestimmt werden kann, die darauf in eine Toolbox zusammengefasst werden. Der Fokus liegt hier auf den Schritten Data Mining und Potenzialidentifikation.
Diese Pilotanwendungen müssen im Schritt „Transparenz“ auf komplexere Fragestellungen ausgeweitet werden, damit ein nachhaltiges Vertrauen in den Data-Lake und die IIoT-Plattform geschaffen wird. Die Skalierung der Anwendungen wird damit bewiesen und Analysen können auf alle Elemente des Netzwerks angewendet werden. Fokus ist hier auf Evaluierung und Wissensmanagement zu legen.
Dies resultiert in Prozesstransparenz, weil Wirkzusammenhänge dokumentiert, digital messbar, auswertbar und somit bekannt sind. Der Abschluss des Schritts „Transparenz“ ermöglicht die Entwicklung und Implementierung von Prognosealgorithmen auf der Plattform, die auf bewiesenen Wirkzusammenhängen basieren. Dies geschieht im Reifegrad „Prognose“. Analysen, die auf unternehmensinternen Daten basieren, werden mit externen Daten erweitert und die Toolbox um Prognoseelemente erweitert. Hierunter fallen beispielsweise die Integration und Anwendung von ARIMA-Modellen in Anwendungen in die Toolbox. Dadurch können Geschäftsprozesse in prognostizierbare (der Prozess ist mittels eines statistischen Modells hinreichend genau vorhersagbar) und nicht-prognostizierbare (Prozess ist nicht hinreichend genau vorhersagbar) Abläufe geclustert werden. Fokus in diesem Entwicklungsschritt sind Data Mining und Integration.
Die letzte Stufe des Entwicklungsmodells „Anpassungsfähigkeit“ greift die Unterteilung von Geschäftsprozessen in prognostizierbare und nicht-prognostizierbare Prozesse auf. Prognostizierbare Prozesse werden mit automatisierten Entscheidungsalgorithmen erweitert. Fokusschritte sind hier Wissensmanagement und Evaluierung.
Geschäftsprozesse passen sich so autonom an veränderte Umstände an und die höchste Entwicklungsstufe „Anpassungsfähigkeit“ ist erreicht. Ein Beispiel eines solchen autonomen Prozesses ist, dass Kundenabrufschwankungen statistisch modelliert werden können und basierend darauf die Produktionsplanung automatisch diese Schwankungen abbildet, wodurch Überkapazitäten vermieden werden.
Fazit
Die Entwicklung des Knowledge-Discovery-Prozessmodells in Kombination mit einem Referenzmodell-Framework zur Industrie 4.0 liefert ein konkretes Modell zur Implementierung des Referenzmodells von Altendorfer-Kaiser und Kormann.
Die Implementierung im betrachteten Fertigungsnetzwerk ist aktuell im Reifegrad „Transparenz“. Ein Data-Lake ist vorhanden, aber die notwendige Toolbox zur Analyse ist in Entwicklung. Die Herausforderungen bei der Implementierung waren hauptsächlich hardware- und organisationstechnischer Natur. Durch die strikte Einhaltung des vorgestellten Knowledge-Discovery-Prozessmodells in Kombination mit dem Reifegradmodell der Acatech wurden standardisierte Analyseanwendungen in der Distribution, Beschaffung und im Transport netzwerkübergreifend innerhalb von zwei Monaten und standortbezogen innerhalb von zwei Wochen entwickelt und vollständig implementiert. Weitere Forschung ist nun notwendig, um den Inhalt der Plattform, der Schritte des Referenzmodells und des Knowledge-Discovery-Prozessmodells detaillierter zu definieren. Zusätzlich müssen Anwendungen in der Produktionsversorgung und im Controlling entlang der Lieferkette im Fertigungsnetzwerk implementiert werden.
Schlüsselwörter:
Big Data, Knowledge-Discovery-Prozessmodell, IoT-Plattform
Literatur:
[1] Acatech: Umsetzungsempfehlungen für das Zukunftsprojekt Industrie 4.0. Abschlussbericht des Arbeitskreises Industrie 4.0. 2013.
[2] Zsifkovits, H.; Altendorfer-Kaiser, S.: Wissenschaftlicher Industrielogistik-Dialog. Berlin 2017.
[3] Mikusz, M.: Towards an Understanding of Cyber-Physical Systems as Industrial Software-Product-Service systems. In: Procedia CIRP 16 (2014), S. 385-389.
[4] Mourtzis, D.; Vlachou, E.; Milas, N.: Industrial Big Data as a result of IoT adoption in Manufacturing. In: 5th CIRP Global Web Conference Research and Innovation for Future Production. 2016, S. 290-295.
[5] Fettke, P.: Ansätze der Informationsmodellierung und ihre betriebswirtschaftliche Bedeutung: Eine Untersuchung der Modellierungspraxis in Deutschland. In: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung (zfbf) 61 (2009) 5, S. 550-580.
[6] Lahrmann, G.: Strategieentwicklung für die effektive und effiziene Informationsversorung in Unternehmen – Ein integrierter Ansatz für die Informationslogistik. Dissertation, Universität St. Gallen 2011.
[7] Watson, I. (Hrsg): Applying Knowledge Management: Techniques for Building Corporate Memories. Boston 2003.
[8] Wissenschaftliche Dienste des dt. Bundestages: Aktueller Begriff: Industrie 4.0. Berlin 2016.