Industrial Big Data: Tieferes Prozessverständnis durch Daten
Lesedauer: 6Minuten
03. Oktober 2021 von Max Hoffmann und Tobias Meisen/Lehrstuhl für Informationsmanagement im Maschinenbau an der RWTH Aachen und Thomas Thiele
Längst hat die digitale Transformation auch die industrielle Produktion erreicht. Insbesondere getrieben durch die Erfolge und Fortschritte der vorwiegend amerikanischen IT-Unternehmen ist diese vierte industrielle Revolution, oder Industrie 4.0, wie sie in der Hightech-Strategie der Bundesregierung heißt, in vollem Gange. Eine Vielzahl von Begriffen und Technologien wie Internet der Dinge, Cyber-Physische Systeme und Big Data bilden das Rahmenwerk dieses Wandels. Im vorliegenden Beitrag wird insbesondere der Big Data Begriff adressiert und eine Abgrenzung dieses umfassenden Konzepts hinsichtlich der Definition von Industrial Big Data unternommen. Zudem wird anhand von Fallbeispielen exemplarisch erläutert, welche Mehrwerte die Anwendung dieser Methoden in der Produktion generiert.
Datenintegration als Schlüsselfaktor
Der Begriff der digitalen Transformation beschreibt weit mehr als die Mechanisierung, Automatisierung und Robotisierung unserer Arbeitswelten. Vielmehr fasst er die durch eine fortschreitende digitale Vernetzung induzierte Veränderung unserer Gesellschafft zusammen. Dabei durchdringt die Digitalisierung zunehmend das tägliche Leben und nimmt Einfluss auf zentrale Lebensbereiche (vgl. hierzu beispielsweise Statistiken in [1] bzgl. der stetig steigenden Nutzung digitaler Medien und Techniken). In der betriebswirtschaftlichen Praxis von Unternehmen impliziert dies eine Auseinandersetzung mit modernem Marktverhalten, Geschäftsmodellen sowie bewährten Lebens- und Arbeitswelten.
Ein wesentlicher Enabler dieses Wandels sind die Möglichkeiten, die uns Big Data eröffnen. Big Data ist gleichzeitig ein Begriff und eine Sammlung von Methoden: Einerseits beschreibt der Ausdruck die stetige Zunahme des Datenvolumens, der -geschwindigkeit und der -vielfältigkeit. Andererseits steht er für die Befähigung technischer Systeme zur Speicherung, Nutzung und Analyse großer Datenmengen – sogenannter Big Data Technologien. [2] Es ist daher wenig verwunderlich, dass die Übertragung der Technologien und Vorgehensmodelle in den industriellen Kontext durch immer mehr produzierende Unternehmen angestrebt wird. Die produzierende Industrie generiert bereits heute, befähigt durch die vorangegangenen Digitalisierungsbemühungen, große Mengen digitalisierter Daten [3]. Ihre Erschließung und Nutzbarmachung verspricht vielfältige Möglichkeiten hinsichtlich der Optimierung und des Verständnisgewinns zur Gestaltung von Arbeits- und Geschäftsprozessen. Peter Sondergaard, Senior Vice President bei Gartner, bezeichnete den Wert von Informationen treffend mit „Information is the oil of the 21st century, and analytics is the combustion engine“ [4].
Diese Übertragung von Big Data auf die industrielle Anwendung – sogenanntes Industrial Big Data – und die Erschließung der Potenziale ist daher für viele Unternehmen eines der strategischen Ziele. Industrial Big Data beschreibt das zugrundliegende Konzept und die Methoden zum Umgang mit Daten, die in einer fortgeschritten vernetzten, digitalisierten Industrie entstehen [3]. Dabei existieren grundlegende Unterschiede zu Big Data. Industrial Big Data sind in der Regel strukturierter, stark korreliert und zeitabhängig sowie insgesamt ähnlicher in ihrer semantischen Repräsentation. Ein wesentliches Element zum Verständnis dieser Produktionsdaten für Analysten liegt in der Integration der Daten, die sich ohne domänenspezifisches Fachwissen nur schwer realisieren lässt. So haben Sensor- und Prozessdaten eine eindeutige physikalische Bedeutung und ihnen liegt ein deterministischer Interpretationsraum zugrunde, dessen Analyse fachliches Domänenwissen voraussetzt. Es ist somit nicht hinreichend, die Technologien rund um Big Data lediglich anzuwenden, vielmehr ist eine tiefergehende Auseinandersetzung mit selbigen im industriellen Kontext notwendig. Jede Phase des Auswertungsprozesses (Bild 1) bringt hierbei spezifische Herausforderungen mit sich und wird um weitere, gemeinsame Herausforderungen nach beispielsweise Privatsphäre und Skalierung ergänzt.
Bild 1: Analysevorgehen im Kontext von (Industrial) Big Data.
Zur erfolgreichen Implementierung dieses Prozesses sieht sich die Industrie insbesondere einer zentralen Herausforderung gegenüber. In den letzten 30 Jahren lag der Fokus der Digitalisierung und hiermit verbundener Investitionen in die Automatisierungstechnik auf einer Optimierung spezifischer Kernprozesse. Im Ergebnis dieser Unternehmenspolitik führte dies zur Ausprägung von Insellösungen einzelner Teilprozesse und damit zu verstreuten Datenbeständen. Deren Akquisition, Zusammenführung und Homogenisierung ist daher eine erste Hürde, die es auf dem Weg zu Industrial Big Data zu nehmen gilt. Bisher wurden hierfür sogenannte Business Intelligence Ansätze, die auf Data Warehouses und Extract-Transform-Load (ETL) Integrationsprozessen zur Bereinigung, Aufbereitung und strukturierten Speicherung aufbauen, herangezogen. Für deren Einführung, Inbetriebnahme und Nutzung in den letzten zwei bis drei Jahrzehnten wurden mehrere Millionen Euro investiert [5].
Diese Ansätze setzen aber voraus, dass die Datennutzung, also der Zweck des Einsatzes, bereits vor der Zusammenführung bekannt ist (Schema-on-Write). Andernfalls ist die Definition der Zielstruktur (des Schemas) und des Integrationsprozesses nicht durchführbar. Für moderne Anwendungen ist dieses Vorgehen jedoch häufig nicht praktikabel, da die genaue Struktur der zu integrierenden Daten aufgrund ihrer Komplexität und Heterogenität im Vorhinein nur schwer abzuschätzen ist. Durch eine Vielzahl neuer Datenquellen und Analyseanfragen, die sich erst nach einer initialen Analyse des Betriebs ergeben, unterliegen die benötigten Schemata sowie die erforderliche flexible Zielstruktur ständig dynamischen Anpassungen. Da die Struktur von klassischen Data Warehouses dieser Dynamik nicht gerecht wird, wurden sogenannte Data Lake Konzepte entwickelt, die flexible Zielstrukturen für sämtliche anfallende Prozessdaten bereitstellen. Anstelle von Schema-on-Write setzt der Data Lake auf das
sogenannte Schema-on-Read [6].
Unter dieser Methodik werden Strukturen zusammengefasst, die es ermöglichen, Daten in ihrer Rohform abzulegen und das Schema erst bei der Extraktion gemäß ihres Anwendungszwecks zu definieren, indem eine entsprechende Aufbereitung und Zusammenführung heterogener Daten aus verschiedensten Quellen stattfindet. Um dieses Konzept zu ermöglichen, bedarf es jedoch weitaus mehr als der bloßen Idee, sämtliche Daten in einen Data Lake zu speichern. Wie Gartner in [7] aufzeigte, sind Daten ohne ihren Kontext wertlos, da eine entsprechende Zusammenführung eben erst durch den Kontext bewerkstelligt werden kann. Dieser Umstand führt dazu, dass entweder sämtliche Nutzer der verfügbaren Daten über die entsprechenden Kenntnisse und das notwendige domänenspezifische Hintergrundwissen verfügen müssen oder dass der den Daten zugrundeliegende Kontext (repräsentiert durch Metadaten) durch entsprechende technologische Maßnahmen abgespeichert und bei entsprechenden Anfragen an die Daten in geeigneter Form mitgeliefert wird.
Als einer der Vorreiter in der Digitalisierung gestaltet die deutsche Automobilindustrie im Rahmen einiger Vorhaben bereits Konzepte, das Potenzial und die Chancen, die mit derartigen Speicherstrukturen einhergehen, aktiv zu nutzen. Nachfolgendes Fallbeispiel stellt die bisherigen Erkenntnisse und Ergebnisse, die das IMA im Rahmen der Begleitung derartiger Vorhaben erlangt hat, dar. Hiernach werden die Vorteile dieses Vorgehens anhand von Analyseprozessen dargestellt.
Industrial Big Data, Datenintegration, Künstliche Intelligenz, Machine Learning
Literatur:
[1] Statista: Internetnutzung in Deutschland, Dosier. 2016.URL: https://de.statista.com/statistik/studie/id/22540/dokument/internetnutzu…, Abrufdatum 29.05.2017. [2] Klein, D.; Tran-Gia, P.; Hartmann, M.: Big Data. In: Informatiklexikon der Gesellschaft für Informatik. URL: https://www.gi.de/service/informatiklexikon/detailansicht/article/big-da…, Abrufdatum 29.05.2017. [3] GE Intelligent Platforms: The Rise of Industrial Big Data. 2012. [4] Gartner: Gartner Says Worldwide Enterprise IT Spending to Reach $2.7 Trillion in 2012, 2011. [5] Statista: Umsatz mit Business-Intelligence- und Analytics-Software weltweit von 2010 bis 2015 (in Milliarden US-Dollar). 2017. URL: https://de.statista.com/statistik/daten/studie/259969/umfrage/umsatz-mit…, Abrufdatum 29.05.2017. [6] Tamara Dull: Data Lake vs Data Warehouse: Key Differences. 2015. URL: http://www.kdnuggets.com/2015/09/data-lake-vs-data-warehouse-key-differe…, Abrufdatum 29.05.2017. [7] Gartner: Gartner Says Beware of the Data Lake Fallacy 2014. [8] Kamps, U.: Datenanalyse. In: Gabler Wirtschaftslexikon. URL: http://wirtschaftslexikon.gabler.de/Archiv/1823/datenanalyse-v10.html, Abrufdatum 29.05.2017. [9] Tercan, H.; Al Khawli, T.; Eppelt, U.; Büscher, C.; Meisen, T.; Jeschke, S.: Improving the laser cutting process design by machine learning techniques. In: Production engineering 11 (2017) 2, S. 195-203.
Die Diversität menschlicher Körper ist eine große Herausforderung für die Bekleidungsindustrie. Unterschiedliche Morphotypen benötigen speziell dafür angepasste Größensysteme sowie Daten zur Häufigkeitsverteilung der Morphotypen in der Bevölkerung für die Produktionsmengenplanung. Dazu wurden Reihenmessungen mit Varianten von KI-Algorithmen trainiert und aus der Klassifizierung dann Größentabellen und Häufigkeitsverteilungen abgeleitet. Die Diversität menschlicher Körper ist immer noch eine... [mehr]... [more]
Flexible Produktionssysteme in der Praxis
Deutschland hat bekanntermaßen einen sehr leistungsstarken Industriesektor, dessen Produkte weltweit nachgefragt werden. Diese Stärke lässt sich aus der guten Kooperation zwischen international agierenden Konzernen und einem breiten Spektrum mittelständischer Unternehmen herleiten. Dabei nimmt das produzierende Gewerbe rund 50 % der deutschen Exporte ein. Die wesentlichen Erfolgsfaktoren sind dabei die hohen Qualifikationen der Arbeitskräfte, die weltweit bekannte... [mehr]... [more]
Produktionssteuerung bei hoher Variantenvielfalt in der Elektronikfertigung
Ein kontinuierlicher Anstieg der Variantenvielfalt, lange Durchlaufzeiten und hohe Bedarfsschwankungen prägen viele Wertströme in der Elektronikindustrie. Die Implementierung von Nivellierung und Ziehprinzip soll dabei helfen, Regelabläufe und standardisierte Arbeit in der Fertigung zu ermöglichen. Als Lösungsansatz wird in diesem Artikel an einem Praxisbeispiel die Umsetzung einer hybriden Conwip-Steuerung vereinigt mit dem Baustein Nivellierung vorgestellt. Der... [mehr]... [more]
Der digitale Logistik-Zwilling
Jetzt registrieren und im kostenlosen Digital-Abo weiterlesen! Digitale Logistik-Zwillinge haben insbesondere in der Produktionslogistik sehr umfangreiches Potenzial, da durch ihre Implementierung die Transparenz über das gesamte Logistiksystem und Flexibilität deutlich gesteigert wird. Die Reduktion von Durchlaufzeiten und die Vermeidung von Engpässen sind nur einige davon.
Newsletter
Bleiben Sie immer auf dem neuesten Stand des Expertenwissens für die Praxis.
Hier erhalten Sie Zugang zu unseren exklusiven Infobriefen. Wir bedanken uns für Ihre Anmeldung mit einem kostenlosen Marktführer.
Stay up to date with the latest expert knowledge for your ERP practice.
Get access to our exclusive newsletter here. We thank you for signing up with a free ERP market guide (in German).
Wir verwenden Cookies, um die Nutzererfahrung stetig zu verbessern. Mehr Erfahren.
We use cookies to constantly improve our users’ experience. Learn more.
Essentielle Cookies
Essential Cookies
Cookie Settings Speichert Einstellungen, die hier getroffen werden. (1 Jahr)
Cookie Settings Saves selected settings. (1 Year)
Statistik
Statistics
Google Analytics | Google LLC | Datenschutz Cookie von Google für Website-Analysen. Erzeugt statistische Daten darüber, wie der Besucher die Website nutzt. Alle Informationen werden anonymisiert gespeichert. (2 Jahre)
Google Analytics | Google LLC | Privacy Notice Cookie used by Google for web site analysis. Collects statistical data on how visitors use the website. This data does not contain personal information. (2 years)