In der finalen Folge unserer Mini-Serie zu »Künstlicher Intelligenz (KI) und Statistik« wird es tiefgründig – im wahrsten Sinne des Wortes. Unser Podcast-Team – bestehend aus Esther Packullat, Sascha Feth und Jochen Fiedler – beschäftigt sich mit den großen Sprachmodellen wie GPT-4, Llama oder Gemini.
Wir werfen einen Blick hinter die Kulissen und diskutieren spannende Fragen wie:
- Was macht diese Modelle so leistungsfähig?
- Wie funktionieren große Sprachmodelle eigentlich?
- Was heißt Deep Learning – und was unterscheidet es von Shallow Learning?
- Wie arbeiten Neuronale Netze – und warum spielt ihre Topologie eine entscheidende Rolle?
- Inwiefern lassen sich die Fähigkeiten großer KI-Modelle wirklich vorhersagen?
- Warum ist Deep Learning mehr als nur angewandte Statistik?
- Was ist Emergenz – und warum überrascht uns KI manchmal selbst?
- Und schließlich die große Frage: Werden KI-Systeme eines Tages ein Bewusstsein entwickeln? Was würde das bedeuten?
Unsere beiden Statistik-Kollegen sind sich einig: Die Entwicklung geht in eine spannende Richtung – und wir stehen erst am Anfang.