Datenanalyse und Künstliche Intelligenz

In unserem Bereich »Analytics und Computing« entwickeln wir Methoden und Algorithmen zur Analyse großer, komplexer Datenmengen – interdisziplinär aus Mathematik, Statistik und Informatik. Dabei kombinieren wir bewährte statistische Verfahren mit modernen Ansätzen aus Künstlicher Intelligenz und Machine Learning. In enger Zusammenarbeit mit Expertinnen und Experten aus unterschiedlichen Anwendungsfeldern – etwa Gesundheit, Automobilindustrie oder Produktion – entstehen Lösungen zur Datenanalyse und Visualisierung, die wissenschaftlich fundiert und zugleich praxisnah einsetzbar sind.

Gleichzeitig arbeiten wir daran, KI- und Machine-Learning-Modelle effizienter, robuster und skalierbar zu machen. Denn steigende Modellkomplexität verlangt nach leistungsfähiger Infrastruktur und klugen Optimierungsstrategien. Mit Hochleistungsrechnern und GPU-Clustern wie »Styx« sowie HPC-Technologien (u. a. BeeGFS und GPI) entwickeln wir verteilte und skalierbare Verfahren, die rechenintensive Lernprozesse beschleunigen, etwa durch optimierte und asynchrone Trainingsmethoden. So schaffen wir die Grundlage, KI-Lösungen zuverlässig in realen Anwendungen nutzbar zu machen.

Künstliche Intelligenz und High Performance Computing

Ausgewählte Projekte und Dienstleistungen des Schwerpunktes

 

Projekt »STANCE«

Die »Strategic Alliance for Neuromorphic Computing and Engineering« fördert die Forschung zu neuromorphen Technologien, der »STANCE Knowledge-Hub« bündelt das interdisziplinäre Wissen dazu.

 

Carme

Mit dem Open-Source Multi-User Softwarestack Carme können mehrere Nutzer die verfügbaren Ressourcen eines Rechenclusters verwalten.

 

DLseis

Das Projekt »Deep Learning für große seismische Anwendungen« (DLseis) befasst sich mit der Grundlagenforschung bis hin zu einsatzbereiten Deep-Learning-Tools für seismische Anwendungen.

 

Multi-Target Neural Architecture Optimization

NASE – Neural Architecture Search Engine

Wir unterstüzen Sie bei der Integration Ihres optimalen, individuellen neuronalen Netzes.

 

Fed-DART – Distributed Analytics Runtime for Federated Learning

»Distributed Analytics Runtime for Federated Learning« ermöglicht dezentrales Machine Learning, das Datenschutz gewährleistet.

Datenanalyse

Ausgewählte Projekte

 

SafeClouds

Weitere Informationen zum Projekt »SafeClouds« auf unserer Projektseite »Verteilte Infrastruktur zur Datenanalyse in der Luftfahrt«.

 

Fraunhofer-Cluster of Excellence CIT

Kognitive Internet-Technologie

Das Cluster fokussiert sich auf die drei Schwerpunkte »IOT-COMMs«, »Fraunhofer Data Spaces« und »Machine Learning«.

 

Federated Learning Framework FACT

FACT kommt zum Einsatz, wenn es darum geht Machine-Learning-Modelle zu trainieren – ohne dass Daten zentralisiert oder zusammengeführt werden müssen.

Vergangene Projekte

TensorQuant

Mit unserem Softwaretool TensorQuant simulieren Entwickler Deep-Learning-Modelle mit beliebigen Zahldarstellungen und Rechengenauigkeiten.

DeTol

Im BMBF-Projekt »Deep Topology Learning« (DeTol) werden durch datengetriebene Entwurfsalgorithmen der Entwurfsprozess für Deep-Learning-Lösungen beschleunigt und vereinfacht.

GAIA-X 4 KI

Im BMKW-Projekt »GAIA-X 4 KI« entwickeln wir gemeinsam mit 14 Partnern ein Ökosystems aus Daten und Diensten, die das Trainieren und Validieren von Anwendungen der Künstlichen Intelligenz (KI) ermöglichen.

Kleinstpartikel mit großer Wirkung: Aerosole in Klimamodellen

In dieser Projektarbeit unterstützt Machine Learning beim Erstellen von globalen Langzeitprognosen des Klimasystems.

HALF

Im Projekt HALF entwickeln wir energie-effiziente Hardware, die Künstliche Intelligenz zur Auswertung von Patientendaten auch auf mobilen Geräten ermöglicht.

Next Generation Computing

Die Digitalisierung bringt eine Datenflut mit sich, die wir mit heutigen Rechnersystemen bald nicht mehr effizient bewältigen. Es ist Zeit für eine neue hybride Computing-Generation: Next Generation Computing (NGC). Fraunhofer hat im November den ersten Quantencomputer nach Deutschland geholt. Wir sind dabei zu erforschen, welche Probleme wir künftig besser mit Quantencomputern lösen und welche besser mit anderen Architekturen.

GPU-Cluster

Mit dem High Performance GPU-Cluster »Styx« bieten wir einen Cluster, dessen Fokus auf der effektiven Nutzung und nahtlosen Einbindung neuartiger Beschleunigerkarten in den Workflow der User liegt.

Bauhaus.MobilityLab

Mithilfe Künstlicher Intelligenz werden in diesem Projekt innovative Produkte und Dienstleistungen in den Bereichen Mobilität, Logistik und Energie entwickelt und unter realen Bedingungen in der Thüringer Landeshauptstadt Erfurt erprobt.

Smarte App unterstützt Gesundheitsämter

»EsteR« unterstützt die Gesundheitsämter mit Mathematik und KI bei Entscheidungen. Der Vorgänger ist das Projekt »CorASIV«.

Kredit-Risikomanagement auf Basis von Nachrichten

Unser System bezieht aktuelle Nachrichten zur Verbesserung der Prognose-Qualität heran.