Vorausschauende (prädiktive) oder zustandsorientierte Instandhaltung ist für Industriekunden und die Industrie 4.0-Initiative ein erstrebenswertes Ziel. Eine ineffiziente, regelmäßig nach Plan erfolgende Wartung durch entsprechende Software zu ergänzen oder gar zu ersetzen, verspricht, Geräteausfälle und ungeplante Ausfallzeiten zu reduzieren, die Sicherheit zu verbessern und letztlich in einer Zeit unstabiler Preise und Budgets ein besseres Unternehmensergebnis zu erreichen.
In einem Chemieunternehmen beispielsweise kostet die Reparatur eines unerwartet auftretenden technischen Problems möglicherweise ein paar Tausend Euro, während ein Produktionsausfall Millionen kosten kann. Ein Pharmaunternehmen verlor wegen eines kaputten Ventils ein gesamtes Produktionslos im Wert von rund 200.000 Euro. Wäre das schleichende Problem frühzeitig erkannt worden, hätte ein neues Ventil – der Preis liegt bei 1.000 Euro – eingesetzt werden können, bevor Probleme auftraten.
Eine treibende Kraft hinter diesem Umdenken sind die unermüdlichen Fortschritte in der Speicher-, Halbleiter-, Software- und Netzwerktechnologie. Heute kann man wirtschaftlich und technisch sinnvoll IT-Funktionalität in einer weit größeren Anzahl von Geräten und Umgebungen integrieren und damit aussagekräftige Ergebnisse erzielen. Studien haben gezeigt, dass LED-Beleuchtung in Verbindung mit dynamischen Dimm- und Kontrollfunktionen den Leistungsbedarf von Lichtanlagen um über 80 % senken kann [1].

Bild 1: Das PI System auf einen Blick. Bild OSIsoft.
Weniger als 1 % der 30.000 Sensordaten einer Ölplattform werden geprüft
Auch datenbasierte Instandhaltungsprozesse können die Effizienz wesentlich steigern. Fast überall auf der Welt ist der Wasserverlust durch Lecks ein großes Problem für die Wasserversorgung. Wasserwerke sind meist chronisch unterfinanziert und viele Städte kämpfen mit einer Infrastruktur, die Jahrzehnte alt ist. Weltweit sind es schätzungsweise 32,6 Billionen Liter aufbereiteten Wassers, die jedes Jahr durch Lecks verloren gehen, bevor der Rest unseren Wasserhahn erreicht, was nahezu der 40 Billionen-Liter-Kapazität des chinesischen Drei-Schluchten-Damms entspricht [2].
Und letztlich sind Unternehmen dank einer allgegenwärtigen Vernetzung in der Lage, auf riesige Mengen an operationellen Daten zurückzugreifen, die sie schon besitzen, aber nicht in vollem Umfang nutzen. Nach Schätzungen von McKinsey & Co. werden weniger als 1 % der Daten von grob 30.000 Sensoren an einer Ölplattform überhaupt gesichtet und für die Entscheidungsfindung herangezogen [3].
Noch spielt sich prädiktive Instandhaltung vermutlich mehr in PowerPoint-Präsentationen auf Konferenzen ab als in den Fertigungslinien der Fabriken.
Zum Teil ist dies einer tief verwurzelten Vorsicht zuzuschreiben. Industrieunternehmen müssen von Natur aus etwas konservativ agieren. Kleine Rückgänge in Ausbeute oder Produktivität aufgrund von Softwareimplementierungen können Millionen kosten; ein Abfall der Produktqualität kann, insbesondere für ein Lebensmittel- oder Pharmaunternehmen, größere Auswirkungen haben. Die Devise „Mach schnell und brich mit den Konventionen” mag für Softwarefirmen funktionieren, aber in einer Fabrik oder auf einer Hochseeplattform ist das ein gutes Rezept für Chaos.
Aber es gibt auch noch einen anderen Grund. Die Technologiebranche war – zumindest bisher – nicht sehr effektiv darin, ihre „Killerapplikationen“, das heißt Anwendungen, die als Initialzündung für die Verbreitung von Technologien dienen, ins richtige Licht zu setzen. Dabei spielt die Killerapplikation in der Technologie eine wesentliche Rolle. Personal-Computer zum Beispiel kamen in den 1970ern auf den Markt und zielten zunächst nur auf Hobbybastler. Erst nach der Erfindung von Spreadsheet- und Textverarbeitungsapplikationen eroberten PCs auch den Unternehmensmarkt. Ähnlich verwandelte der grafische Browser von Netscape das Internet von einem Insidergeheimnis in ein globales Phänomen, das uns heute noch immer wieder überrascht. Heute treiben Text und Musik die Nutzung und Evolution von Smartphones an, Spiele sind ein wichtiger Faktor für die Weiterentwicklung von PCs und Social Media treibt die vermehrte Nutzung und Entwicklung des Internets voran [4].
Auch die prädiktive Instandhaltung scheint in vielen Aspekten das Potenzial einer Killerapplikation in sich zu bergen. Die Vorteile solcher Systeme sind offensichtlich. Wartungsabläufe können in bereits existierende Prozeduren eingebunden werden, ohne dass Unternehmen ihre grundlegenden Fertigungsprozesse neu überarbeiten müssten. Kosten und Nutzen können außerdem sehr detailliert nachverfolgt werden.
Prädiktive Instandhaltung als Versuchslauf für das IIoT
Man stelle sich prädiktive Instandhaltung als Versuchslauf für das IIoT (Industrial Internet of Things) [5] vor: man sollte sie nutzen, um die optimalen Vorgehensweisen zu lernen und zu etablieren, bevor man eine breiter angelegte Strategie implementiert.
Industrieapplikationen sind von Natur aus zu komplex, um das Ideal des „Plug and Play“ umzusetzen. Aber wir kommen diesem Ziel näher. Petronas Carigali, der Upstream-Bereich des Öl- und Gaskonglomerats im Besitz des malaysischen Staats, erlebte wiederholt unerwartete Ausfälle von Anlagen auf einigen seiner Offshore-Plattformen. Eine einzige Abschaltung kann Tage dauern und Millionen von Dollar kosten. Wenn Probleme auftraten, mussten landbasierte Ingenieure mit dem Hubschrauber eingeflogen werden, um Informationen zu sammeln, aus denen sich die Ursache der Probleme bestimmen ließ [6].
[ Wenn Sie den kompletten Beitrag lesen möchten, klicken Sie hier ]