Generative Maschinelle Lernverfahren in der Entscheidungsunterstützung

Innovative Ansätze für bessere Entscheidungen

Modellierungsansätze mit VAE zur Erkennung seltener Ereignisse

Der Variational Autoencoder (VAE) ist ein flexibles generatives Modell, das aus einem Encoder und einem Decoder besteht. Der Encoder komprimiert Eingabedaten in einen latenten Raum, während der Decoder diese latenten Variablen nutzt, um die ursprünglichen Daten zu rekonstruieren. Ziel ist es einerseits, die Eingabedaten möglichst gut zu rekonstruieren, und andererseits, die Wahrscheinlichkeitsverteilung über den latenten Raum zu approximieren.

Damit bietet der VAE viele Vorteile für die Anwendung in der Auffälligkeitsdetektion. Im Fokus unserer Forschung steht unter anderem die Interpretierbarkeit der latenten Raumdarstellung. Der VAE berechnet eine komprimierte und strukturierte Repräsentation der Eingabedaten. So lassen sich Auffälligkeiten erkennen, bei denen die Verteilungen der latenten Variablen deutlich von der erwarteten Verteilung abweichen. Die Analyse der latenten Struktur liefert wertvolle Hinweise für die Interpretation der zugrunde liegenden Merkmale.

Wir forschen an unterschiedlichen Modellierungsansätzen mit verschiedenen Verteilungsannahmen und analysieren deren Aussagekraft für die Auffälligkeitsdetektion – insbesondere im Hinblick auf sehr seltene Ereignisse.

Herausforderungen und innovative Ansätze in der Auffälligkeitsdetektion    

Eine zentrale Herausforderung in der Auffälligkeitsdetektion liegt darin, dass ganz unterschiedliche Arten von Auffälligkeiten auftreten können – darunter auch bisher unbekannte. Häufig ist die Anwendung ein explorativer Prozess, in dem kontinuierlich Erfahrungen gesammelt werden. Da Auffälligkeiten in der Regel sehr seltene Ereignisse darstellen, ist es entscheidend, vorhandenes Erfahrungswissen in den Modellierungsprozess einzubinden. Wir forschen an teilüberwachten Trainingsansätzen, mit denen vorhandene Erfahrungen gezielt in das Training integriert werden können.

Bedeutung von Interpretierbarkeit und Erklärbarkeit bei Maschinellen Lernverfahren  

Die »Verordnung über Künstliche Intelligenz« (AI Act) der Europäischen Kommission verfolgt das Ziel, einen einheitlichen Rechtsrahmen für den Einsatz von Künstlicher Intelligenz (KI) innerhalb der EU zu schaffen. Ein zentrales Anliegen ist die Forderung nach Transparenz hinsichtlich der Funktionsweise von KI-Systemen. Interpretierbarkeit und Erklärbarkeit sind daher entscheidende Aspekte für die Modellierung Maschineller Lernverfahren.

Kontrafaktische Erklärungen beantworten die Frage: »Was wäre passiert, wenn…?« und helfen insbesondere Anwender:innen dabei, alternative Szenarien zu verstehen und zu analysieren. Der VAE bietet die Möglichkeit, neue Daten aus den erlernten latenten Verteilungen zu generieren.

Wir forschen an Ansätzen, bei denen nicht nur Auffälligkeiten vorhergesagt werden können, sondern auch ein alternativer »nicht auffälliger Datenpunkt« optimal erzeugt werden kann.