Mit TwinCAT Machine Learning Server als weiterer Inference Engine wird TwinCAT Machine Learning auch den zunehmend steigenden Anforderungen des maschinellen Lernens (ML) bzw. Deep Learning für industrielle Anwendungen gerecht. Denn die ML-Modelle werden immer komplexer, die Ausführungsgeschwindigkeit soll dabei steigen und hinsichtlich der ML-Modelle wird eine größere Flexibilität der Inference Engines erwartet. Bei TwinCAT Machine Learning Server handelt es sich um eine Standard-TwinCAT-SPS-Bibliothek und eine sogenannte Near-Realtime Inference Engine, d. h. im Gegensatz zu den beiden bisherigen Engines wird diese nicht in harter Echtzeit, sondern in einem separaten Prozess auf dem IPC ausgeführt. Im Gegenzug sind in der Server Engine dafür grundsätzlich alle KI-Modelle ausführbar und das bei voller Unterstützung des standardisierten Austauschformats Open Neural Network Exchange (ONNX). Weiterhin gibt es für dieses TwinCAT-Produkt KI-optimierte Hardwareoptionen für eine skalierbare Leistungsfähigkeit.
Tags: Deep Learning Machine Learning ML-Modelle Near-Realtime Inference Engine Open Neural Network Exchange TwinCAT