Machine Learning – Generierung von Wissen aus Erfahrung

Die zunehmende Digitalisierung von Wirtschaft und Gesellschaft ist auch getrieben durch den Einsatz Künstlicher Intelligenz. Sie findet sich in Alltagsanwendungen wie Routenplaner und Sprachassistent, aber auch in professionellen Anwendungen wie der industriellen Qualitätskontrolle, der medizinischen Diagnostik oder bei autonomen Fahrzeugen. Diese Entwicklung wird vor allem durch Techniken des Maschinellen Lernens getrieben; insbesondere Deep Learning bzw. Neuronale Netze haben zuletzt zu deutlichen Fortschritten geführt, auch dank enorm gestiegener Rechenleistung und Investitionen in Knowhow.

Maschinelles Lernen ist zur Alltagstechnologie geworden, aber jeder Algorithmus ist nur so gut wie die Daten, mit denen er trainiert wird. Häufig liegen in Unternehmen, die ML-Methoden für die Optimierung ihrer Prozesse und Produkte nutzen wollen, zwar große Datenmengen vor, aber selten in einer Form, in der sie ohne weiteres für Maschinelles Lernen genutzt werden könnten. Probleme etwa in Bezug auf Verlässlichkeit und Robustheit sind aber mittlerweile gut verstanden und werden weltweit beforscht, auch an unserem Institut.

Hybrider Ansatz: Expertenwissen kombiniert mit Maschinellem Lernen

Wir wollen unseren Kooperationspartnern aus Industrie und Wirtschaft Softwarewerkzeuge an die Hand geben, um ihre Prozesse verbessern. Software, die maßgeschneidert ist, um verschiedene Alternativen schnell vergleichbar zu machen und so Verbesserungspotentiale zu erkennen. Die Modelle der echten Prozesse müssen dafür ein hohes Maß an Realitätsnähe und Verlässlichkeit aufweisen: Die Wirklichkeit muss so gut abgebildet sein, dass Verbesserungsvorschläge umsetzbar und quantitativ verlässlich sind. Diese hohe Anforderung wird durch die Kombination von Verfahren des maschinellen Lernens mit vorhandenem Experten- und physikalischem Modellwissen erfüllt. Diverse Verfahren, wie Neuronale Netze oder Support-Vector-Machines werden so trainiert und integriert, dass das bereits vorhandene Wissen genutzt wird. Auf diese Weise entstehen Modelle, die ausreichend genau sind, um substanzielle Prozessverbesserungen zu entdecken.

In der deutschen Textilindustrie entstehen durch Färbefehler jährlich 8,8 Mio. Euro Kosten.
© iStockphoto

In der deutschen Textilindustrie entstehen durch Färbefehler jährlich 8,8 Mio. Euro Kosten.

ML-Methoden institutsweit im Einsatz

Im ITWM wird das Machine Learning in nahezu allen Abteilungen angewendet, meist als hybride simulationsbasierte Machine-Learning-Methode. So erstellt die Abteilung Systemanalyse, Prognose und Regelung mit ML-Algorithmen Werkzeuge, die biologisch-medizinische Daten analysieren, interpretieren und visualisieren. Aber auch im Rahmen des Predictive Maintenance helfen ML-Verfahren bei der Prognose des Auftretens unerwünschter Betriebszustände und Ereignisse. Um Produktionsprozesse in der Textilindustrie mit ML-Methoden auszulegen und zu optimieren, entwickelte die Abteilung Transportvorgänge einen hybriden Ansatz: Im Projekt DensiSpul geht es um die Optimierung von Kreuzspulmaschinen; konkret steht die bessere Durchfärbung der gewickelten Garnspulen im Fokus der Forschung.

In der Bildverarbeitung spielen ML-Verfahren schon lange eine große Rolle, zählt doch die Entwicklung sicherer und stabiler Algorithmen für die optische Qualitätssicherung in der Produktion zu ihren Schwerpunkten. Eine Herausforderung ist hier allerdings nicht die Qualität, sondern die Menge an Daten, denn in einer gut funktionierenden Anlage sind viele Bilder von fehlerfreien Produkten vorhanden sind, aber nur wenige von Produkten mit Defekten. Eine Möglichkeit ist die Datenaugmentierung, d.h. auf Basis der echten Fehlerdaten werden künstliche Fehlerdatenbanken erzeugt. Man kann die Defekte aber auch mathematisch beschreiben und die Bildverarbeitungsalgorithmen mit diesem Modell trainieren. Die Abteilung bietet auch klassische Machine-Learning-Lösungen an, die sich für die automatisierte Verarbeitung riesiger Bilddatenmengen eignen, die bisher manuell klassifiziert wurden.

Energiesparen bei der Chemikalienherstellung
© Fraunhofer

Energiesparen bei der Chemikalienherstellung

Neuronale Netze ermöglichen signifikante Energieeinsparung

Im Bereich Optimierung ist es gelungen, Methoden des Maschinellen Lernens in der Verfahrenstechnik einzusetzen und mit einem neuen Analysetool signifikant Energie einzusparen bei der Herstellung von Chemikalien. Verfolgt wird auch hier ein hybrider Ansatz. Grundlage sind Messdaten wie Druck oder Temperatur, die mit Sensoren in technischen Anlagen erhoben werden. Bisher wurden diese Sensordaten bisher nur Prozessüberwachung eingesetzt, nun werden sie unter anderem zum Trainieren neuronaler Netze eingesetzt. Die Entwicklung des neuen Tools wurde 2019 mit einem Fraunhofer-Preis ausgezeichnet.

Schwerpunkt im High Performance Computing

Das Competence Center High Performance Computing hat Maschinelles Lernen und Datenanalyse zu einem eigenen Schwerpunkt gemacht. Gearbeitet wird unter anderem an der Entwicklung neuer Algorithmen zur verteilten Berechnung des Trainings neuronaler Netze und deren Realisierung auf spezialisierter Hardware. Das Hauptaugenmerk liegt dabei auf der Umsetzung skalierbarer Optimierungsalgorithmen für die verteilte Parallelisierung von großen Machine-Learning-Problemen. Die Grundlagen wurde dafür wurde am CC HPC selbst gelegt, denn es sind HPC-Komponenten wie das parallele Filesystem BeeGFS oder das Programmierframework GPI2.0, welche die effiziente Implementierung neuer Algorithmen erst ermöglichen.

Neben der Forschungstätigkeit sind wir in den letzten Jahren auch zu einem gefragten Anbieter von Seminaren im Bereich Maschinelles Lernen geworden.