Bereich »Analytics und Computing«

Abteilungen »Finanzmathematik« und »High Performance Computing«

Der Bereich »Analytics und Computing« bündelt die Stärken der Abteilungen »Finanzmathematik« und »High Performance Computing«, um datengetriebene Innovationen in der Digitalwirtschaft branchenunabhängig voranzutreiben.

Auf der methodischen Seite verbinden wir Data Science, Machine Learning und KI mit stochastischer Modellierung, Simulation, Optimierung und statistischen Verfahren. Auf der Computing-Seite erschließen wir mit High Performance Computing neue Anwendungsfelder und entwickeln in enger Kooperation mit Industrie und Wissenschaft Werkzeuge für den effizienten Einsatz moderner Prozessoren und Parallelrechner bis hin zu kompletten Softwarelösungen.

Die Kombination von Software- und Hardwarekompetenz eröffnet besondere Chancen: von der modellgetriebenen Idee über performante Implementierungen bis zum produktiven Betrieb auf skalierenden Architekturen. Zudem heben wir Synergien in Quantencomputing und Next-Generation-Computing, um künftige Leistungsgrenzen zu erschließen. Damit adressiert »Analytics und Computing« zentrale Zukunftsmärkte der Digitalisierung, KI und des Computings und liefert robuste, skalierbare Lösungen – von Datenanalytik und Finanzmathematik bis zu HPC-optimierten Anwendungen.

Schwerpunkte

 

Business Analytics und Anomaliedetektion

Effiziente Abrechnungsprüfung und Kostenprognosen durch digitale Lösungen – wir entwickeln branchenübergreifende mathematische Methoden zur Business Analytics und Anomaliedetektion.

 

Investmentmanagement und -optimierung

Der Fokus liegt dabei auf der strategischen Asset-Allokation sowie dem Investitionsmanagement.

 

Finanz- und Versicherungsmathematik

Die Finanz- und Versicherungsmathematik beinhaltet die stochastische Modellierung, Simulation und Optimierung sowie statistische Verfahren. 

 

Performance Engineering und I/O‑Lösungen

Das Team beschäftigt sich mit der Entwicklung von Methoden und Werkzeugen zur optimalen Ausnutzung der verfügbaren Ressourcen.

 

Seismische Datenverarbeitung

Spezialisiertes Bearbeiten seismischer Reflektionsdaten erlaubt die detaillierte Analyse von Gesteinsschichten im Untergrund.

 

Energieeffiziente Supercomputersysteme

Der Stencil- und Tensor Beschleuniger (STX) setzt auf Hardware-Software-Co-Design und Open Source, um Schlüsseltechnologien in Europa zu stärken.

 

Künstliche Intelligenz und Datenanalyse

Data Science bezeichnet ein interdisziplinäres Wissenschaftsgebiet mit dem Ziel, Erkenntnisse aus Daten zu gewinnen. Dabei kommen u.a. Methoden wie Machine-Learning zum Einsatz.

 

Quantencomputing

In diesem Schwerpunkt arbeiten wir an neuen Algorithmen und Software für den Einsatz von Quantencomputing. Dabei ist das Wechselspiel zwischen Quantencomputing und High Performance Computing interessant.

Produkte

Commodity Risk Manager

Risikocontrolling-Software für Energieunternehmen: Neben der Bewertung von Standard-Risikokennzahlen bilden wir auch komplexe und unternehmensspezifische Risiken mit der Software ab.

ALMSIM Pfadgenerator

Softwarelösung zur Generierung von Marktszenarien u.a. auf Grundlage des PIA-Basismodells.

Structured Note Pricer

Mit unserem Structured Note Pricer ist es möglich Marktszenarien auf verschiedene Art und Weise zu modellieren und Aspekte eines Produktes zu beleuchten. Wir haben verschiedene Methoden und Modelle implementiert:

GPI-Space

GPI-Space erlaubt die Entwicklung spezifischer Entwicklungs- und Ausführungsumgebungen.

Federated Learning Framework FACT

FACT kommt zum Einsatz, wenn es darum geht Machine-Learning-Modelle zu trainieren – ohne dass Daten zentralisiert oder zusammengeführt werden müssen.

NASE: Mehrdimensionale Optimierung neuronaler Netzarchitekturen

NASE –Neural Architecture Search Engine

Wir unterstüzen Sie bei der Integration Ihres optimalen, individuellen neuronalen Netzes.

GaspiLS

GaspiLS ist eine skalierbare lineare Löser-Bibliothek in Zeiten von Exascale-Computing und ist auf eine optimale Skalierbarkeit getrimmt.

Fed-DART

Unsere »Distributed Analytics Runtime for Federated Learning« (Fed-DART) realisiert föderierte Maschinelle Lernmethoden (ML), um lokale Daten verteilter Umgebungen zu nutzen.

Methoden der Tiefenmigration

Tiefenmigrationsverfahren berechnen aus den gemessenen reflexionsseismischen Daten ein Abbild des Erduntergrundes.

GaspiCxx

GaspiCxx ist eine Programmierschnittstelle für die Programmiersprache C++, die für die Kommunikationsbibliothek GPI-2 entwickelt wurde.

 

GPI

GPI ist eine Kommunikationsbibliothek für hoch skalierende Anwendungen. GPI erlaubt echt asynchrone und parallele Kommunikation aller Threads und erzielt optimale Überlappung von Kommunikation und Berechnung.

Mitarbeitende

Profile der Mitarbeiterinnen und Mitarbeiter des Bereichs »Analytics und Computing«.