3.3 | 5 aktuelle Erkenntnisse, wie LLMs funktionieren
Einleitung
Wie funktionieren große Sprachmodelle wirklich?
Auch wenn wir täglich damit arbeiten – ganz durchblicken tun wir es nicht. Selbst führende KI-Expert:innen nennen die Modelle eine „Blackbox“. Doch neue Forschung – z. B. von Anthropic – gibt erste Einblicke.
In diesem Modul bekommst du einen Überblick über das, was man heute über die Funktionsweise von LLMs weiß – und was man (noch) nicht weiß.
Das Video unten fasst die spannendsten Erkenntnisse zusammen.
Bitte wählen Sie eine Option
Abschluss
Du siehst: KI ist mehr als nur ein Reaktionstool. Sie denkt – anders als wir – aber nicht weniger komplex.
Wenn du verstehst, wie LLMs funktionieren, kannst du sie gezielter einsetzen. Mit besseren Prompts, mit klareren Erwartungen – und mit einem kritischen Blick auf jede Antwort.
Bleib dran – dieses Feld entwickelt sich rasant weiter.
Ein Experiment
Kopiere dir den Originalartikel von Anthropic – und gib ihn Grok (das ist ein Large Language Modell (LLM), welches Dir auf der xpand AI Plattform zur Verfügung steht) mit folgendem Prompt:
„Guck mal im Anhang, da hat man einen ‚Kollegen‘ von dir wissenschaftlich untersucht. Was hältst du davon – und kannst du mir die Erkenntnisse mit deinen Kommentaren zusammenfassen und auf Deutsch übersetzen?“
Tipp
Erstaunlich, wie differenziert Grok darauf reagiert – fast schon selbstreflektierend.
Probiere das selbe gern in anderen LLMs aus – du bekommst ganz unterschiedliche Ergebnisse und siehst daran, wie verschieden die Sprachmodelle „denken“.
So verbindest du Forschung und Praxis – und gewinnst eigene Einblicke in die Denkweise moderner KI.
Dein Take-away
- Moderne LLMs funktionieren komplexer, als wir oft denken – ihre innere Funktionsweise bleibt teilweise eine „Blackbox“
- Neue Forschung (z.B. von Anthropic) gibt erste Einblicke in das „Denken“ von KI
- Das Verstehen der KI-Funktionsweise hilft dir, bessere Prompts zu schreiben und Ergebnisse kritisch zu bewerten
- Verschiedene KI-Modelle „denken“ unterschiedlich – experimentiere mit dem gleichen Prompt in verschiedenen LLMs