Next Generation Computing

Next Generation Computing (NGC) steht auf drei Säulen

Computer sind aus dem täglichen Leben nicht wegzudenken und die digitale Transformation bringt immer neue Geschäftsmodelle und Innovationen hervor. Herkömmliche Computing-Technologien stoßen allerdings allmählich an die Grenzen ihrer Geschwindigkeit, Leistungsfähigkeit und Energieeffizienz. Zeit für Next Generation Computing! Fraunhofer treibt die Entwicklung von Hardware und Technologien für die nächste Generation voran und setzt Akzente bei Trusted Computing, Neuromorphem Computing und Quantencomputing.

Interview mit Dr. Jens Krüger, Referent für Next Generation Computing am Fraunhofer ITWM

Dr. Jens Krüger aus unserer Abteilung »High Performance Computing« ist Fraunhofer-Referent für das Strategische Forschungsfeld »Next Generation Computing«. Er wagt einen Blick in die Zukunft und beschreibt, welche Computer unser Arbeitsleben und vielleicht auch unseren Alltag prägen werden.

Die nächste Generation vom Computern wird vielfältig sein. Sie steht auf drei verschiedenen Säulen: die erste Säule basiert auf klassischen Architekturen, wie wir sie heutzutage kennen, aber spezialisiert sind auf bestimmte Anwensungsfelder. Die zweite Säule sind analoge und neuromorphe Computer, die in etwa so funktionieren wie unser Gehirn und die dritte Säule sind Quantencomputer: Fraunhofer ist auch hier ganz vorne dabei und betreibt seit Juni 2021 den IBM System One in der Nähe von Stuttgart.

Welchen Herausforderungen können wir mit der nächsten Computergeneration begegnen?

Die Digitalisierung stellt uns vor große Herausforderungen beispielsweise in den Bereichen Gesundheit, Mobilität und der Energiewende – immer mehr Daten müssen immer schneller verarbeitet werden. Ein Lösungsansatz ist das neuromorphe Computing, bei dem Computer das menschliche Gehirn zu imitieren versuchen. Unser Gehirn ist äußerst effizient in der Verarbeitung von Informationen und sehr gut in der Mustererkennung, dabei ist es auch noch extrem energieeffizient. Dieses System von Neuronen und Synapsen wollen wir imitieren, indem Daten nicht mehr nach dem Transport vom Speicher in die Verarbeitungseinheit, sondern während der Weiterleitung in einem Netz von Neuronen und Synapsen verarbeitet werden. Ein großer Vorteil ist die Energieersparnis, denn es werden nur die Neuronen eines Netzes aktiviert, die auch gebraucht werden.

An einem IBM Quantum System One können Industrie und Forschung jetzt unter deutschem Recht anwendungsbezogene Quantensoftware entwickeln, sie testen und ihre Kompetenzen ausbauen.
© IBM Research
An einem IBM Quantum System One können Industrie und Forschung jetzt unter deutschem Recht anwendungsbezogene Quantensoftware entwickeln, sie testen und ihre Kompetenzen ausbauen.

Was zeichnet Trusted Computing aus?

Kern ist eine vertrauenswürdige Mikroelektronik, also eine, die beispielsweise gegen Hackerangriffe auf Infrastrukturen geschützt ist oder das Entschlüsseln von Datenkommunikation verhindert. Diese Mikroprozessoren sollen auch in Europa entwickelt werden um unabhängiger von globalen Partnern zu werden um auch in Zeiten von Engpässen, wie wir sie gerade erleben, auf diese Schlüsseltechnologie Zugriff haben.


Wie werden sich klassische Prozessoren entwickeln?

Es wird mehr Vielfalt geben – viele verschiedene Arten von Chip-Architekturen sowie auch neue Marktteilnehmer. Ein Beispiel für eine neue Generation Europäischer Prozessoren ist EPI, die European Processor Initiative, in der 28 Partner aus zehn europäischen Ländern gemeinsam die ersten High Performance Computing Prozessoren und Beschleunigereinheiten entwickeln. Die EPI-Prozessoren sollen Simulationsanwendungen, wie beispielsweise Wettervorhersagen und Strömungssimulationen effizient ausführen können. Wir konzentrieren uns auf die Entwicklung eines energieeffizienten Simulationsbeschleunigers namens STX, welcher in einem europäischen Exascale-System Anwendung finden soll. 

Laufende Projekte

Was hat es mit NASE – Neural Architecture Search Engine auf sich?

Datenmengen nehmen ständig zu, und viele Unternehmen wissen bereits um den hohen wirtschaftlichen Wert der darin verborgenen Informationen. Insbesondere Edge Devices wie z. B. Mobiltelefone und Fahrzeuge produzieren mit ihrer großen Anzahl an Sensoren immer mehr Daten, die ein großes Innovationspotential bieten. Eine Hürde dabei ist, dass die Daten häufig in Echtzeit vor Ort ausgewertet werden müssen; der Rechenaufwand dafür ist allerdings meist enorm. Es muss deshalb nach effizienten Lösungen gesucht werden. Effizienz kann Geschwindigkeit, Stromverbrauch, Modellgröße und vieles mehr bedeuten.

Einer der schwierigsten und zeitaufwendigsten Aspekte ist der Entwurf einer optimalen neuronalen Netzarchitektur, die alle Kriterien erfüllt. Um solche optimalen Architekturen zu erstellen, braucht es Wissenschaftler*innen mit großem Erfahrungsschatz. Für uns beginnt Effizienz schon beim Algorithmus. Wir nutzen modernste Verfahren der automatischen neuronalen Netzwerksuche, die Netzwerke liefern, welche effizient hinsichtlich vieler Aspekte gleichzeitig sein können.

Wir unterstützen Sie beim Design und Intergration Ihres optimalen, induviduellen neuronalen Netztes. Alle Informationen finden Sie hier: KI-Services: NASE – Neural Architecture Search Engine

Video: Dr. Jens Krüger zu Next Generation Computing

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Vortrag zu Next Generation Computing

Klimawandel und der stetig anwachsenden Weltbevölkerung fordern Effizienzsteigerungen in allen Lebensbereichen unserer Gesellschaft. Die Digitalisierung ist ein wichtiger Teil dieses Prozesses. Aber wie schaffen wir es, die immer größer werdenden Datenmengen durch immer mehr und komplexere Algorithmen zu verarbeiten, ohne dass die Digitalisierung selbst durch übermäßigen Energieverbrauch zum Problem statt zur Lösung beiträgt? Der Online-Vortrag, der am Fraunhofer ITWM gehalten wurde, stellt aus einer technischen Perspektive vielversprechende Computingtechnologien und Trends vor, die zur Bewältigung dieser Herausforderungen beitragen.