Deep-Learning-Tools für seismische Anwendungen

Deep Learning ist eine bahnbrechende Technologie auch für die Geowissenschaften. Das Projekt Deep Learning für große seismische Anwendungen (DLseis) befasst sich mit der Grundlagenforschung bis hin zu einsatzbereiten Werkzeugen.

Projekt DLseis – Deep Learning für seismische Anwendungen

Die Verfügbarkeit großer Datenmengen und die Fortschritte bei der Rechenleistung haben Deep Learning (DL) als bahnbrechende Technologie für viele der schwierigsten Probleme in der Sprachverarbeitung, der Bildverarbeitung und Computerlinguistik etabliert. Die gelernten Ansätze übertreffen die von Menschen entwickelten in Bezug auf Genauigkeit, Durchsatz und Flexibilität. Viele große Herausforderungen in den Geowissenschaften weisen solche Merkmale auf, nämlich den Bedarf, wissenschaftliche Erkenntnisse aus einer schnell wachsenden Menge verfügbarer synthetischer, beobachteter und experimenteller Daten zu gewinnen.

Das interdisziplinäre Projekt Deep Learning für große seismische Anwendungen (DLseis) befasst sich systematisch mit diesen Herausforderungen für eine Sammlung anspruchsvoller Probleme in der seismischen Verarbeitung. DLseis umfasst drei Bereiche:

  • Grundlagenforschung zu Deep-Learning-Methoden
  • Weiterbildung und Verbreitung sowie
  • einsatzbereite Software für die Produktion.

Anwendungsorientierte Forschung

Unsere Grundlagenforschung befasst sich mit bestimmten wissenschaftlichen Anforderungen, die Voraussetzung sind, bevor Deep Learning (DL) ​​problemlos und routinemäßig auf seismische Anwendungen übertragen werden kann. Erstens sind seismische Pre-Stack-Datensätze häufig hochdimensional und überschreiten in ihrer Größe in der Regel die der größten häufig verwendeten DL-Benchmarks. Daher entwickelt DLseis die erforderliche Technologie für skalierbares und leistungsstarkes Deep Learning. Darüber hinaus werden seismische Felddaten häufig nicht klassifiziert, was die direkte Anwendung etablierter DL-Workflows verbietet. DLseis behebt diesen Mangel an klassifizierten Felddaten durch Transferlernen aus systematisch generierten synthetischen Daten und durch das Studium unüberwachter Ansätze.

Einsatzbereite Deep-Learning-Tools

Eine Sammlung anspruchsvoller Schlüsselanwendungen in der seismischen Prozessierung überträgt unsere Grundlagenforschung auf einsatzbereite Werkzeuge. Gemeinsam mit Branchenexperten wenden wir Deep Learning an und evaluieren die Ergebnisse für Herausforderungen in der Interpretation.

Illustrierung unseres DL-getriebenen Ansatzes für Trimstatik.
Vergleich von Extrema in zwei Beispielgathern, welche aus Felddaten extrahiert wurden. Wir beobachten eine sehr gute Erhaltung der Extrema nach der Korrektur durch den DL-getriebenen Ansatz.

Ein Beispiel sind Trimmstatiken, die die seismische Inversion und Interpretation durch Konditionierung nach der Migration verbessern. Hier untersuchen wir einen ganzheitlichen Ansatz, der Domänenwissen mit der Leistung von DL kombiniert. Beispielsweise verbessert die Anwendung eines trainierten neuronalen Netzwerks für die Trimmstatik auf der linken Seite die Ausrichtung der unterirdischen Reflexionen in den gezeigten seismischen Gathern erheblich.

 

Unser Workflow besteht aus drei Haupteilen: 1) Der Generierung von synthetischen Daten, 2) der Vor- und Nachbearbeitung der Daten, und 3) dem Trainieren des neuronalen Netzes. Die Abbildung zeigt den Fluss der synthetischen Daten während des Trainings. Die Freiheitsgrade der datenabhängigen Vorbearbeitung werden ausschließlich von den Eingabedaten hergeleitet und dann auf die korrigierten Zielgathers angewendet. Während des Trainings wenden wir das neurale Netzwerk wiederholt an, um das korrigierte Ergebnis zu erhalten. Dies erlaubt uns Fehlernormen abzuleiten und entsprechend die Netzwerkgewichte durch Backpropagation zu optimieren.

Eine zweite Anwendung ist das automatische Ausblenden von Signalanteilen geringer Qualität als notwendigem Bearbeitungsschritt der Gather vor dem Stapelprozess. Traditionell wird dies manuell von einem Domänenexperten durchgeführt. Wir entwickeln eine Deep-Learning-Lösung für diese pixelweise Segmentierung, die Qualität und Zeitaufwand verbessert sowie die Lösung frei von subjektiven Einflüssen halten soll.

Interaktive Visualisierung zur Qualitätskontrolle und manuellen Korrektur von in Echtzeit generierter Masken durch ein neuronales Netz.

ALOMA – Software für Seismik-Experten

Unsere Software ALOMA wird als Plattform für die Integration und Ausführung aller entwickelten Tools ausgewählt. ALOMA ist eine parallele Laufzeitumgebung für seismische Anwendungen. Es basiert auf den HPC-Tools des Fraunhofer ITWM, wie der automatisch parallelisierenden Laufzeit-Engine GPI-Space und dem verteilten Dateisystem BeeGFS. ALOMA erweitert diese Tools um domänenspezifisches Wissen, wie z. B. Muster und Formate für seismische Daten, und bündelt es mit einem benutzerfreundlichen Workflow-Generator und einem Ausführungsmonitor.