Umsetzung in industrieller Routine

Zusammen mit der BASF SE wird der Nutzen dieses Ansatzes für die Modellierung, Simulation und Optimierung der Fahrweise chemischer Produktionsanlagen demonstriert; ferner erfolgt eine nutzerfreundliche Umsetzung für die industrielle Routine.

Greybox-Modelle zur Optimierung von Gesamtverfahren

Die Virtualisierung chemischer Produktionsanlagen in einem Modell und die sich daran anschließende modellbasierte Optimierung sind wichtige Schritte zu Innovation sowie Effizienz- und Qualitätssteigerung. In einem bilateralen Kooperationsprojekt entwickeln wir mit der BASF SE Methoden zur hybriden Modellierung, in der physikalisch-chemisches Wissen (»white«) mit datengetriebenen Ansätzen (»black«) in einem Gesamtmodell integriert wird. Diese Methoden werden in einem BASF-eigenen Fließbildsimulator integriert, so dass sie den Prozessingenieuren dort für ihre tägliche Arbeit zur Verfügung stehen.

Ein typischer chemischer Produktionsprozess enthält einen chemischen Reaktor zur Stoffumwandlung. Die Edukte des Reaktors werden einer Aufreinigung zugeführt, die beispielsweise destillativ erfolgen kann. Soll dieser Prozess in einem Fließbildsimulator modelliert werden, sind einerseits Kenntnisse über die chemischen Reaktionen nötig, andererseits muss die Thermodynamik der Auftrennung bekannt sein.

In der industriellen Praxis typisch ist die Situation unvollständig bekannter Stöchiometrien und Reaktionskonstanten, wohingegen die destillativen Prozesse eher bekannt sind. Neben diesem physikalischen White-Box-Wissen liegen historische Prozessdaten von verschiedenen Messstellen vor. Hier ist bewusst ein Fall dargestellt, wo die Eingänge des zu modellierenden Apparats ungemessen sind.

 

Erster Schritt: Short-Cut-Modell

Die Aufgabe des Projekts besteht darin, Informationen aus den Prozessdaten zu generieren, mit denen die Lücken des physikalischen Modells geschlossen werden können. Dazu wird in einem ersten Schritt der Reaktor durch ein vereinfachtes Short-Cut-Modell ersetzt, das – zusammen mit dem Modell der Aufreinigung – alle vorhandenen physikalischen Gleichungen enthält.

Schema eines Fließbilds
© ITWM

Schema eines Fließbilds mit einer Reaktionseinheit zur Stoffumwandlung und zwei Destillationskolonnen zur Aufreinigung; die Kreise symbolisieren Messstellen (T: Temperaturmessung, F: Strommessung, Q: Messung der Kühlleistung).

Mit diesem Modell werden Ausgleichsrechnungen durchgeführt, mit denen die Vorhersagen des Modells für die Größen, die an der echten Anlage gemessen werden, möglichst gut angepasst werden. Eine Ausgleichsrechnung besteht in der Minimierung einer Fehlerquadratsumme, wobei die quadrierten Differenzen zwischen Modellvorhersagen und Messstellen möglichst klein sein sollen. Jeder Term ist mit der inversen Varianz der Messstelle gewichtet. Da Varianzen oft nur vage bekannt sind und die Anpassungen an verschiedene Messgrößen miteinander im Konflikt stehen, enthält dieser Schritt nicht nur eine, sondern einen Satz von Ausgleichsrechnungen, die automatisiert mit optionaler Nutzerinteraktion durchlaufen. Ergebnis dieses Schritts sind verlässliche Softsensordaten an den Ein- und Ausgängen des Reaktors.

 

Zweiter Schritt: Modellidentifikation

Der zweite Schritt besteht aus der Modellidentifikation für den ungenügend modellierten Apparat – hier der Reaktor – auf Grundlage der Softsensordaten. Dafür stehen verschiedenste Verfahren zur Verfügung, beispielsweise Regressionsverfahren mit vordefinierten Funktionen, aber auch künstliche neuronale Netze mit Backpropagation-Training. Mit statistischen Methoden sind quantitative Aussagen über Konfidenzintervalle und Vorhersagefehler möglich. Darüber hinaus erlauben diese, Parameter, die nur unzuverlässig geschätzt werden können, zu trennen von solchen, die mit hoher Genauigkeit identifizierbar sind.

 

Dritter Schritt: Gesamtmodell generieren

Im dritten Schritt wird das datengetriebene Modell aus Schritt zwei in das Fließbild eingefügt und so ein Gesamtmodell für den Prozess generiert. Dieser Schritt ist aus verschiedenen Gründen nicht trivial: Nicht nur die Lösbarkeit des Gesamtsystems muss sichergestellt sein, sondern auch die Extrapolierbarkeit für eine Gesamtprozessoptimierung.

Diese wird mit Optimierungsverfahren durchgeführt, die nicht nur der mehrkriteriellen Natur des Problems Rechnung tragen, sondern auch mit Unsicherheiten umgehen können. Hierzu gehören die robuste und die stochastische Optimierung.

Typischer Workflow
© ITWM/iStockphoto

Aus Daten lernen: Typischer Workflow mit Modellierung, Simulation, Optimierung, in den Daten für realitätsnahe Modelle einfließen.

Robuste Optimierung: bestmögliche Gestaltung des schlechtmöglichen Szenarios

Die im allgmeinen kontinuierliche Unsicherheitsmenge von Modellparametern wird durch eine diskrete Auswahl von Szenarien beschrieben. Die Auswahl der Szenarien geschieht so, dass die Unsicherheitsmenge möglichst repräsentativ abgedeckt wird; dazu stehen Strategien der statistischen Versuchsplanung ebenso zur Verfügung wie randomisierte Verfahren.

Die Auswirkung dieser Szenarien auf die Zielfunktion wird berechnet und mittels Sensitivitätsmaßen quantifiziert.
Die robuste Optimierung zielt auf eine bestmögliche Gestaltung des schlechtmöglichen Szenarios. Diese Optimierungsstrategie wird mehrkriteriell durchgeführt, unter Einbeziehung konkurrierender Ziele.

Die Praxiserfahrung zeigt, dass oft schon verhältnismäßig kleine Anpassungen im Prozessdesign ausreichen, um einen erheblichen Gewinn an Robustheit zu erlangen. Für den Fall, dass nach dieser Erstellung des Greybox-Modells die Unsicherheiten in den Modellvorhersagen dennoch zu groß sind, wurde eine modellbasierte, mehrkriterielle Versuchsplanung entwickelt, womit einerseits der Informationsgewinn aus Experimenten maximiert wird, andererseits andere, betriebsrelevante Ziele bestmöglich erfüllt werden.

Ein wesentlicher nächster Schritt besteht im Fine-Tuning der datenbasierten Methoden, so dass Randbedingungen wie Erhaltungsgleichungen leichter integrierbar sind. Dies betrifft beispielsweise die Topologie der hier eingesetzten künstlichen neuronalen Netze. Ferner ist von Interesse, inwieweit die White-Box-Umgebung dafür sorgt, dass die Konfidenzintervalle, die aus der datengetriebenen Modellidentifikation resultieren, verkleinert
werden. Dies ist insbesondere für die Gesamtprozessoptimierung unter unsicheren Modellparametern wichtig.