Produktionsplanung, Prozessverbesserung

Skalierbarkeit von KI-Anwendungen in der Produktion

Fertigung zwischen Insellösungen und systemübergreifenden Produktionsanlagen
Lesedauer:  7 Minuten
Skalierbarkeit von KI-Anwendungen in der Produktion
© Adobe Stock/Murrstock

Bereits heute existieren vereinzelt vielversprechende industrielle Anwendungen der Künstlichen Intelligenz, vor allem in den Bereichen Prozess- und Zustandsüberwachung. Heutige KI-Modelle werden jedoch ausschließlich als Insellösungen für einen Prozess und eine Maschine entwickelt. Durch heterogene Produktionsanlagen existieren kaum prozess- und zustandsübergreifend anwendbare KI-Modelle. Wie gelingt daher eine breite Übertrag- und Skalierbarkeit der Anwendungen in der gesamten Produktion? Dies erfolgt einerseits durch die Vereinheitlichung der Informationsmodelle verschiedener Maschinen durch intelligente Parameteridentifikation (Crawling) sowie in einem zweiten Schritt durch eine Datensegmentierung zum Aufbau strukturierter Datenbasen (Clustering). Auf Grundlage von kontextbasieren Datenbasen, die aus einem einheitlichen Informationsmodell aus unterschiedlichsten Maschinen entstehen, können KI-Ansätze skaliert und auf die gesamte Produktion übertragen werden.

Ein zentraler Anwendungsfall bei der Verwendung von KI-Modellen ist die Zustandsüberwachung von Produktions- und Handhabungsmaschinen. Durch die Aufzeichnung von verschiedenen Zustandsgrößen wird die Basis zur weiteren Datenanalyse gewährleistet. Die benötigten Parameter wie Positionsdaten und Motorstromsignale können aus der Steuerung gewonnen werden und stehen beispielsweise auf einem auf der Steuerung aufbauenden OPC UA-Server zur Verfügung. Da die Parameter auf OPC UA-Servern durch eine fehlende Standardisierung häufig proprietär strukturiert sind und proprietäre Semantiken verwenden, kann ihre Identifikation und Zuordnung eine Herausforderung darstellen. Erforderlich ist daher ein Hilfswerkzeug, das die benötigten Parameter in OPC-Namensräumen durch intelligentes Crawling identifiziert und mit einem einheitlichen Maschineninformationsmodell verknüpft, um dem Anwender die notwendigen Parameterwerte in einer standardisierten, für ihn passenden Struktur zur Verfügung zu stellen.

Ziel der Crawler-Anwendung ist es, für jeden benötigten Parameter des Maschineninformationsmodells eine Knotenstrukturverbindung zu den Datenquellen im OPC-Server zu fi nden, um auch unbekannte Maschinen in kürzester Zeit erfassen und hinsichtlich ihrer Parameter aufklären zu können. Die Identifi kation der Parameter erfolgt dabei wie in Gönnheimer et al. 2019 beschrieben zum einen analytisch, zum anderen mit Hilfe von Verfahren des Maschinellen Lernens [1].

Struktur der Datensegmentierung als Basis skalierbarer KI-Ansätze
Bild 1: Struktur der Datensegmentierung als Basis skalierbarer KI-Ansätze

Die Crawler-Anwendung ermittelt dabei für den jeweils gesuchten Parameter die Zugehörigkeitswahrscheinlichkeit mit allen betrachteten Datenknoten und ordnet die bestbewertete Datenquelle dem Parameter zu.

Nach der Identifikation der relevanten Parameter ist eine weitere intelligente Hilfsfunktion notwendig, um KI-Ansätze ganzheitlich in der Produktion nutzen zu können. Dabei ist die Erkennung wiederkehrender Bearbeitungsmuster (im Folgenden auch Zyklus genannt) in Zeitreihen ausschlaggebend.

Ablauf des Algorithmus
zur Zerlegung von
Daten in Datensegmente
Bild 2: Ablauf des Algorithmus zur Zerlegung von Daten in Datensegmente [2]

Mit Hilfe dieser Funktion kann so beispielsweise der Kraftanstieg, gemessen über einen Dehnungsmessstreifen, oder das Abreißen eines Kühlschmierstofffilms bei einer Werkzeugmaschine, bezogen auf den dazugehörigen Bewegungsverlauf der Maschine im wiederkehrenden Verlauf, detektiert werden. Eine weitestgehend autonome Mustererkennung kann hier einen deutlichen Informationsgewinn darstellen und dazu beitragen Verschleiß, Standzeiten oder auch den Energieverbrauch zu optimieren. Im vorliegenden Artikel wird eine Möglichkeit zur intelligenten Datenstrukturierung auf Basis einer Mustererkennung vorgestellt.

Ausgangssituation

An einer Produktionsmaschine werden eine Vielzahl an Signalen gemessen, welche als Datengrundlage einer Mustererkennung dienen können. Dabei ist zu beachten, dass die Erkennung wiederkehrender Muster dazu dient, repetitive Tätigkeiten oder charakteristische Signalverläufe in den Messdaten zu entdecken und deren Auftreten kontextbasiert darzustellen. Der Anwender kennt hierbei zwar den groben Prozess, jedoch sind die genauen Musterverläufe, deren Länge, Abfolge und Häufigkeit meist nur sehr begrenzt bekannt. In diesem Fall scheitern klassische Auswertungen und Analyseverfahren, wie zum Beispiel die schwellwertbasierte Anomalieerkennung, da das Anwenderwissen zu gering ist, um Vorgaben für solche Verfahren festlegen zu können.

Die sechs verschiedenen
Einzelverläufe,
welche jeweils durch verschiedene
Blechdicken
einen charakteristischen
Temperaturverlauf über
die Zeit aufweisen
Bild 3: Die sechs verschiedenen Einzelverläufe, welche jeweils durch verschiedene Blechdicken einen charakteristischen Temperaturverlauf über die Zeit aufweisen (eigene Darstellung)

Die Datensegmentierung erfolgt in drei sequentiell ablaufenden Phasen (siehe Bild 1). In Phase 1 werden in historischen Daten Segmente erkannt sowie diesen Kontextinformationen als weitere Signale zugewiesen. In der zweiten Phase erfolgt online eine Segmenterkennung sowie in der darauffolgenden Phase der Abgleich von historisch gelernten und online erkannten Segmenten. Auf Basis dieses Abgleichs können Prozessüberwachungen als auch aufbauende KI-Funktionen realisiert werden. Als Kernelement wird die Datensegmentierung in historischen Daten an einem Validierungsbeispiel im Folgenden näher betrachtet. Ablauf und Funktionsweise ist in Bild 2 sichtbar und wird in Netzer et al. 2019 beschrieben.

Stand der Technik

Die Mustererkennung in Zeitreihen bildet im Gegensatz zu anderen Anwendungen der Mustererkennung ein junges Forschungsfeld und findet erst seit der Jahrtausendwende große Beachtung in der Literatur. Das Interesse und die Intensität der Forschungsaktivitäten sind seitdem jedoch außergewöhnlich hoch. Bereits im Jahr 2003 existierten mindestens 1000 wissenschaftliche Publikationen im Bereich der Mustererkennung in Zeitreihen [3].

Das Erkennen wiederkehrender Muster in den Signaldaten von Produktions- und Handhabungsmaschinen findet abseits generischer Ansätze aber bisher kaum Beachtung. Der prominenteste Anwendungsfall der Zyklenerkennung an Produktions- und Handhabungsmaschinen ist die Erkennung von wiederkehrenden Energieverbrauchsmuster [4]. Zur Prozessüberwachung wird dieser Ansatz bislang nicht angewendet. Daher besteht in diesem Bereich noch weiterführender Forschungsbedarf.

Verschiedene Produktionsabläufe, bestehend aus unterschiedlichen Reihenfolgen
der zu bearbeitenden Blechstärken
Bild 4: Verschiedene Produktionsabläufe, bestehend aus unterschiedlichen Reihenfolgen der zu bearbeitenden Blechstärken (eigene Darstellung)

Anwendung

Die Validierung des Algorithmus erfolgt an einem Anwendungsfall des laserstrahlunterstützten Stanzens von Stahlblechen an einer Produktions- und Handhabungsmaschine. Bei diesem Verfahren spielt das Absorptionsverhalten der Laserstrahlung durch die Blechoberfläche eine wichtige Rolle. Hierbei ist vor allem der Einfluss auf den Temperaturverlauf ein wichtiges Kriterium für die Auslegung und Optimierung der Lasertechnologie und des Stanzvorgangs [5].

Verschiedene Blechdicken und Materialien weisen hierbei unterschiedliches Erwärmungs- und Abkühlverhalten auf. Über die Steuereinheit der Produktions- und Handhabungsmaschine kann der Temperaturverlauf der Werkstücke berührungslos mit einem Quotientenpyrometer gemessen und aufgezeichnet werden. Um rückwirkend erkennen zu können, welche Werkstücke in welcher Quantität bearbeitet wurden, wird der beschriebene Algorithmus angewendet, um wiederkehrende Temperaturverläufe den Blechdicken und damit den Werkstücken zuordnen zu können. Dies kann Grundlage für angegliederte Verfahren, wie zum Beispiel eine Prozess- und Energieoptimierung, oder auch eine Anomalieerkennung sein.

Zeitreihe der Temperaturmessung, abgetragen über die Zeit
Bild 5: Zeitreihe der Temperaturmessung, abgetragen über die Zeit (eigene Darstellung)

Die unterschiedlichen Temperaturverläufe für verschiedene Blechdicken an der Stanzkante sind in Bild 3 abgebildet. Diese Werte sind simulierte Daten, die auf den Berechnungen physikalischer Grundlagen basieren. Schließlich ist in Bild 5 die gesamte Zeitreihe abgebildet, welche sich durch mehrfaches Durchlaufen der vier Produktionsabläufe zusammensetzt.

Suche nach lokalen Minima in Schritt 1. Rechts oben: Endpunkt des ersten
Musters und Startpunkt des neuen Musters
Bild 6: Suche nach lokalen Minima in Schritt 1. Rechts oben: Endpunkt des ersten Musters und Startpunkt des neuen Musters (eigene Darstellung)

Insgesamt besitzt die gemessene Zeitreihe 1382 Datenpunkte, welche über eine Gesamtdauer von 267,2 Sekunden abgetragen sind. Die Abtastfrequenz beträgt 5 Hz.Um den Temperaturverlauf in Bearbeitungsmuster zu segmentieren, wird die lokale Minimasuche eingesetzt. Da die einzelnen Werkstücke des lasergestützten Stanzens sich ebenfalls durch die Temperatur der Umgebungstemperatur zu Beginn und am Ende beschreiben lassen, ist dieser Ansatz passend. Das Ergebnis der Suche nach lokalen Minima ist in Bild 6 dargestellt. Als Ergebnis resultierten 22 Bewegungsmuster, welche den Temperaturverlauf zwischen je zwei Minima darstellen.

Die in den beiden vorangegangenen Schritten extrahierten Muster werden in Algorithmusschritt 3 paarweise miteinander verglichen. Als Distanzmaß wurde die Manhattan Metrik gewählt. Die daraus resultierende Distanzmatrix ist in Tabelle 1 zu sehen.

Distanzmatrix der Mikromuster. Zur Berechnung wurde die Manhattan Metrik eingesetzt
Tabelle 1: Distanzmatrix der Mikromuster. Zur Berechnung wurde die Manhattan Metrik eingesetzt (eigene Darstellung)

Auf Basis der durch Distanzberechnung erhaltenen Distanzmatrix wird ein Clusterverfahren durchgeführt. Ziel des Clusterverfahrens ist das Zuordnen gleicher oder leicht abweichender Bewegungsverläufe. Als Clusteralgorithmus wird ein dichtebasiertes Verfahren (Mean Shift-Clustering) verwendet.

Erkannte Cluster
(Spalte 1) mit
den zugehörigen
Segmenten
(Spalte 2: in eckiger
Klammer)

Ergebnis des Algorithmus sind sechs Cluster mit den jeweiligen, zugeordneten Bearbeitungssegmenten (siehe Tabelle 2) und deren Häufigkeit. Somit wurden alle sechs vorgegebenen Segmente erkannt und die Muster korrekt segmentiert.

Die einzelnen Verläufe der erkannten Bearbeitungssegmente decken sich mit den beschriebenen Subsequenzen für die unterschiedlichen Blechdicken. In Bild 7 ist die Ausgabe der Segmente als Temperaturverlauf erkennbar.

Ausblick

In vorliegendem Artikel ist ein Anwendungsfall der ersten Phase der Datensegmentierung alsBasis skalierbarer KI-Algorithmen vorgestellt. Durch diese Basisfunktion können KI-Modelle, wie bspw. zur Prozess- oder Qualitätsoptimierung und -überwachung prozess- und zustandsübergreifend angewendet und auf die gesamte Produktion übertragen werden. KI-Modelle müssen demnach keine Insellösungen mehr sein und werden auch für heterogene Anlagen in der Produktion breit anwendbar.

Durch das Clusterverfahren gefundene wiederkehrende Bearbeitungen inklusive
der Häufigkeit
Bild 7: Durch das Clusterverfahren gefundene wiederkehrende Bearbeitungen inklusive der Häufigkeit (eigene Darstellung)

DOI: 10.30844/FS20-1_51-54


Literatur

[1] Gönnheimer, P.; Hillenbrand, J.; Betz-Mors, T.; Bischof, P.; Mohr, L. & Fleischer, J.: Auto-configuration of a digital twin for machine tools by intelligent crawling, 2019, Production at the leading edge of technology, Hrsg. Wulfsberg, J. P.; Hintze, W. & Behrens, B., S. 543-552
[2] Netzer, M.; Michelberger, J.; Fleischer, J.: Intelligente Störungserkennung einer Werkzeugmaschine, 2019, ZWF 114 (2019), Carl Hanser Verlag GmbH & Co. KG, DOI 10.3139/104.112158
[3] Koegh, E.; Kasetty, S.: On the Need for Time Series Data Mining Benchmarks: A Survey and Empirical Demonstration. Data Mining and Knowledge Discovery 7 (2003) 4, S. 349 – 371 DOI: 10.1145/775047.775062 DOI: 10.1023/A:1024988512476
[4] Putz, M; Frieß, U; Wabner, M et al.: State-based and Self-adapting Algorithm for Condition Monitoring, Procedia CIRP 62 (2017 ) 311 – 316,https://doi.org/10.1016/j. procir.2016.06.073
[5] Grden, M.; Skkiettibutra, J.; Vollertsen, F.; Johnigk, C.; Emonts, M.; Brecher, C. & Eckert, M. (2010), „Prozessauslegung beim Laserstrahlunterstützten Stanzen“, Laser Technik Journal, Bd. 7, Nr. 6, S. 36–41.

Ihre Downloads


Das könnte Sie auch interessieren

Der neue Kollege im Shopfloor

Der neue Kollege im Shopfloor

KI-Assistenzsysteme stärken Fachkräfte im Mittelstand
Viele mittelständische Produktionsunternehmen können ihre Fertigung noch nicht vollständig automatisieren. Gleichzeitig eröffnen Fortschritte in Robotik und KI neue Möglichkeiten. Intelligente Mensch-Technik-Systeme verbinden menschliche Erfahrung mit digitalen Assistenzsystemen im Shopfloor. Sie unterstützen Mitarbeitende, erleichtern den Zugang zu Wissen und steigern Produktivität sowie Qualität –auch in gewachsenen Produktionsumgebungen.
Integration statt Inseldenken

Integration statt Inseldenken

Smart Production mit Plattformstrategie
ZF hat mit der Digital Manufacturing Platform (DMP) eine der umfassendsten digitalen Transformationen der Fertigungsindustrie umgesetzt. Innerhalb kurzer Zeit entstand ein global einheitliches Produktionsnetzwerk, das Prozesse standardisiert, Daten silos auflöst und End-to-End-Transparenz schafft – alles unter hoher Skalierbarkeit und agilem Tempo, selbst in herausfordernden Zeiten wie der Corona-Pandemie
Digitale Ursachenanalyse senkt Stillstände und Kosten

Digitale Ursachenanalyse senkt Stillstände und Kosten

Digital Change Manager spart 60 % Analysezeit und senkt Kosten in der Papierproduktion
Digitale Ursachenanalyse und gezieltes Change Management transformieren die Papierproduktion: Ein Schweizer Hersteller reduziert ungeplante Stillstände, spart 60 % Analysezeit ein und senkt die Kosten mithilfe innovativer digitaler Ansätze. Das Beispiel zeigt, welches Potenzial diese Strategie für Prozesseffizienz und Wettbewerbsfähigkeit hat –wer Manufacturing digital denkt, findet hier Ansätze mit hohem Potenzial.
„KI ersetzt keine Erfahrung – sie macht sie skalierbar!“

„KI ersetzt keine Erfahrung – sie macht sie skalierbar!“

Im Gespräch mit Jürgen Schön, Head of Manufacturing Industry GTM EMEA bei ServiceNow
Die Fertigungsindustrie hat große Fortschritte bei der Einführung von KI gemacht – doch meist bleibt es bei Pilotprojekten. Entscheidend wird nun, KI ganzheitlich entlang der Wertschöpfungskette zu verankern, um echte Wirkung zu erzielen: höhere Produktivität, stabilere Prozesse und weniger Ausschuss. Immer mehr Unternehmen entwickeln konkrete Anwendungsfälle und setzen diese um. KI wird damit vom Experiment zum festen Bestandteil operativer Exzellenz.
Smart Cutting – Intelligente Prozesse im Maschinenpark

Smart Cutting – Intelligente Prozesse im Maschinenpark

Produktivitätssteigerung im Sägeprozess durch Condition Monitoring und Machine Learning
Smart Cutting kombiniert Digital Retrofit, Condition Monitoring und KI, um die Produktivität im industriellen Sägeschnitt zu steigern. Durch Echtzeit-Datenanalyse und Machine Learning werden Maschinenzustände überwacht, Anomalien erkannt und Materialklassifikation automatisiert – für mehr Effizienz, weniger Stillstand und höhere Produktqualität.
KI-Potenziale im Mittelstand

KI-Potenziale im Mittelstand

Von der systematischen Analyse zur praktischen Umsetzung
Während KI in Großunternehmen zunehmend etabliert ist, stehen mittelständische Unternehmen vor der Herausforderung, geeignete KI-Anwendungsfälle zu identifizieren und erfolgreich umzusetzen. Durch die Kombination aus detaillierter Prozessanalyse, strukturiertem Kompetenzaufbau und systematischer Potenzialidentifikation konnten 21 konkrete KI-Einsatzmöglichkeiten identifiziert und mit einem Brandenburger Mittelständler validiert werden.