2.1 | Begriffe verstehen
Wenn du Künstliche Intelligenz sicher und souverän im Arbeitsalltag nutzen willst, brauchst du kein technisches Detailwissen – aber ein gutes Grundverständnis.
In diesem interaktiven Modul lernst du die wichtigsten Begriffe kennen, die dir im Umgang mit KI immer wieder begegnen werden.
Dein Lernziel: Kurz, verständlich, direkt anwendbar – Schritt für Schritt die zentralen KI-Begriffe verstehen und in Bezug zu deiner Arbeit setzen.
Die wichtigsten KI-Begriffe im Überblick
Hier findest du die 13 zentralen Begriffe, die dir helfen, die Welt der KI besser zu verstehen. Klicke durch die Begriffe, um mehr zu erfahren.
LLM (Large Language Model)
Ein KI-Modell, das auf großen Textmengen trainiert wurde und menschenähnliche Texte generieren kann. Die Basis für ChatGPT und andere Sprachassistenten.
Beispiel: ChatGPT nutzt ein LLM, um auf deine Fragen zu antworten oder Texte zu erstellen. Das Modell hat Milliarden von Texten „gelesen“ und kann so unterschiedlichste Anfragen verstehen und beantworten.
Prompt Engineering
Die Kunst, präzise Anweisungen (Prompts) für KI-Systeme zu formulieren, um genau die Ergebnisse zu erhalten, die du benötigst.
Beispiel: Statt „Schreib mir etwas über Meetings“ formulierst du: „Erstelle eine strukturierte Agenda für ein 60-minütiges Teammeeting mit 5 Teilnehmern zum Thema Quartalsergebnisse, inkl. Zeitangaben“
Halluzinationen
Wenn KI-Modelle falsche, irreführende oder erfundene Informationen als Fakten ausgeben, spricht man von „Halluzinationen“.
Beispiel: ChatGPT kann überzeugende, aber falsche Details oder nicht existierende Quellen angeben. Ein KI-Modell könnte etwa ein fiktives Gesetz zitieren oder nicht existierende wissenschaftliche Studien referenzieren.
RAG (Retrieval-Augmented Generation)
Eine Methode, bei der KI-Modelle mit spezifischen Datenquellen verbunden werden, um präzisere und faktenbasierte Antworten zu liefern.
Beispiel: Ein KI-Assistent in deinem Unternehmen kann mit eurem internen Wissenssystem verbunden werden, sodass er auf aktuelle Firmendokumente, Richtlinien oder Projektdaten zugreifen kann.
Bias (Voreingenommenheit)
Systematische Verzerrungen in KI-Modellen, die aus unausgewogenen Trainingsdaten oder gesellschaftlichen Vorurteilen entstehen können.
Beispiel: Ein KI-System für Personalauswahl könnte bestimmte Bewerbergruppen bevorzugen, weil es mit historischen Daten trainiert wurde, die selbst bereits Ungleichheiten enthielten.
Tokens
Die Grundeinheiten, in die ein Text für die KI-Verarbeitung zerlegt wird. Ein Token kann ein Wort, Teil eines Wortes oder ein Satzzeichen sein.
Beispiel: Der Satz „Hallo, wie geht es dir?“ wird in etwa 7 Tokens zerlegt. Die Tokenanzahl bestimmt, wie viel Text ein KI-Modell auf einmal verarbeiten kann.
Fine-Tuning
Der Prozess, ein vortrainiertes KI-Modell mit spezifischen Daten weiter zu trainieren, um es für bestimmte Aufgaben zu optimieren.
Beispiel: Ein allgemeines Sprachmodell kann auf die spezifische Terminologie und den Kommunikationsstil deines Unternehmens fine-getuned werden.
Embeddings
Numerische Darstellungen von Text, die die Bedeutung und den Kontext erfassen. Sie helfen KI-Systemen zu verstehen, wie ähnlich verschiedene Texte sind.
Beispiel: Im Embedding-Raum stehen die Wörter „König“ und „Königin“ näher beieinander als „König“ und „Apfel“, weil sie semantisch verwandter sind.
Multimodale KI
KI-Systeme, die mehrere Arten von Daten (Text, Bilder, Audio) gleichzeitig verarbeiten und verstehen können.
Beispiel: Google Gemini oder GPT-4 können sowohl Bilder analysieren als auch Text generieren – du kannst z.B. ein Foto hochladen und Fragen dazu stellen.
KI-Agenten
Autonome KI-Systeme, die komplexe Aufgaben selbstständig planen und ausführen können, oft mit Zugriff auf Tools und Dienste.
Beispiel: Ein KI-Agent kann für dich nach Flügen suchen, Preise vergleichen, Hotelbewertungen analysieren und dann eine Reiseplanung vorschlagen.
Inferenz
Der Prozess, bei dem ein KI-Modell basierend auf seinem Training Vorhersagen trifft oder Inhalte generiert.
Beispiel: Wenn du ChatGPT eine Frage stellst, findet eine Inferenz statt – das System nutzt sein Training, um die wahrscheinlichste passende Antwort zu generieren.
Chain-of-Thought
Eine Prompt-Technik, bei der die KI aufgefordert wird, ihr Denken Schritt für Schritt zu erläutern, um bessere Ergebnisse zu erzielen.
Beispiel: Statt nur „Löse diese Matheaufgabe“ sagst du „Löse diese Matheaufgabe und erkläre jeden Schritt deiner Lösung detailliert“.
Temperatursetting
Ein Parameter, der die Kreativität und Zufälligkeit der KI-Antworten steuert. Höhere Werte führen zu kreativeren, aber potenziell weniger präzisen Antworten.
Beispiel: Bei niedriger Temperatur (0.2) erhältst du fast immer ähnliche, präzise Antworten auf die gleiche Frage. Bei hoher Temperatur (0.8) variieren die Antworten stärker und sind kreativer.
Was bedeuten diese Begriffe für deinen Arbeitsalltag?
Die gelernten Begriffe sind nicht nur theoretisches Wissen. Hier erfährst du, wie sie in der Praxis relevant werden:
Prompt Engineering hilft dir, präzisere Ergebnisse von KI-Systemen zu erhalten und Zeit zu sparen.
Das Verständnis von Halluzinationen schützt dich davor, KI-generierte Fehlinformationen weiterzugeben.
Kenntnisse über RAG zeigen dir, wie du KI mit deinem eigenen Unternehmenswissen verknüpfen kannst.
Bewusstsein für Bias ermöglicht dir, Voreingenommenheit in KI-Ergebnissen zu erkennen und zu korrigieren.
Praxisanwendung: Wo begegnen dir diese Begriffe?
Beim Briefing eines KI-Assistenten nutzt du Prompt Engineering
Bei der Qualitätsprüfung von KI-Texten achtest du auf Halluzinationen
Wenn du eigene Daten einbindest, verwendest du RAG-Technologien
Bei kritischen Entscheidungen bist du wachsam gegenüber möglichem Bias
Reflexionsfragen
Nimm dir einen Moment Zeit, um über folgende Fragen nachzudenken:
1. Welche zwei oder drei Begriffe erscheinen dir besonders wichtig für dein Verständnis von KI? Wie hängen sie zusammen?
2. Wo könntest du das Konzept des „Prompt Engineering“ in deinem Arbeitsalltag konkret anwenden?
3. Welche Risiken siehst du in Bezug auf „Halluzinationen“ und „Bias“ in deinem Arbeitskontext?