Beckhoff kündigt Server Engine für steigende Machine-Learning-Anforderungen an
TwinCAT Machine Learning mit weiterer Inference Engine
Lesedauer: < 1 Minute

Mit TwinCAT Machine Learning Server als weiterer Inference Engine wird TwinCAT Machine Learning auch den zunehmend steigenden Anforderungen des maschinellen Lernens (ML) bzw. Deep Learning für industrielle Anwendungen gerecht. Denn die ML-Modelle werden immer komplexer, die Ausführungsgeschwindigkeit soll dabei steigen und hinsichtlich der ML-Modelle wird eine größere Flexibilität der Inference Engines erwartet.
Bei TwinCAT Machine Learning Server handelt es sich um eine Standard-TwinCAT-SPS-Bibliothek und eine sogenannte Near-Realtime Inference Engine, d. h. im Gegensatz zu den beiden bisherigen Engines wird diese nicht in harter Echtzeit, sondern in einem separaten Prozess auf dem IPC ausgeführt. Im Gegenzug sind in der Server Engine dafür grundsätzlich alle KI-Modelle ausführbar und das bei voller Unterstützung des standardisierten Austauschformats Open Neural Network Exchange (ONNX). Weiterhin gibt es für dieses TwinCAT-Produkt KI-optimierte Hardwareoptionen für eine skalierbare Leistungsfähigkeit.
Voraussichtliche Markteinführung: 4. Quartal 2022