Willkommen bei AI Academy
𝗘𝗫𝗣𝗟𝗢𝗥𝗘𝗥
Modul 3: Effektive KI-Nutzung – Der Schlüssel liegt im Prompt
𝗡𝗔𝗩𝗜𝗚𝗔𝗧𝗢𝗥
𝗔𝗕𝗦𝗖𝗛𝗟𝗨𝗦𝗦

ENTWURF: Interview: 10 Fragen an Experten

Der EU AI Act im Überblick | Xpand AI Academy

Der EU AI Act im Überblick: Was Sie jetzt wissen sollten

Was der neue EU AI Act für Unternehmen bedeutet – und wie Sie Ihre Mitarbeitenden vorbereiten.

Der EU AI Act verändert die Regeln für den Umgang mit KI – auch für die tägliche Anwendung im Arbeitsalltag. In diesem kompakten Überblick erfahren Sie, welche Anforderungen jetzt auf Unternehmen zukommen, welche Chancen entstehen und wie eine verantwortungsvolle Umsetzung gelingt.

Fundiertes Wissen, verständlich erklärt

Wir haben gründlich recherchiert und uns juristisch beraten lassen, um für Sie die wichtigsten Fakten und Empfehlungen zusammenzutragen. Ziel ist es, Ihnen Orientierung zu geben – verständlich, praxisnah und klar strukturiert.

Im Fokus:

  • Was der EU AI Act für Anwender:innen bedeutet
  • Welche Pflichten für Unternehmen relevant werden
  • Wie Sie sich strategisch vorbereiten können
  • Wo Transparenz und Verantwortung gefragt sind

Navigieren Sie durch das Interview

Der EU AI Act bringt einen risikobasierten Regulierungsrahmen für KI in Europa. Unternehmen, die KI-Systeme entwickeln (Anbieter) oder nutzen (Betreiber), müssen je nach Risikostufe ihrer Systeme spezifische Anforderungen erfüllen. Dazu zählen u. a. Transparenzpflichten, Risikomanagement, Dokumentationsanforderungen oder Nutzerschulungen.

Der AI Act schafft damit erstmals ein verbindliches, einheitliches Regelwerk für vertrauenswürdige KI in der EU.

Der EU AI Act unterscheidet vier Risikoklassen:

  • Verbotene KI-Praktiken (z. B. manipulative Systeme oder Social Scoring)
  • Hochrisiko-KI-Systeme (z. B. Bewerberauswahl, Kreditvergabe, biometrische Identifikation)
  • Begrenzte Risiken mit Transparenzpflicht (z. B. Chatbots)
  • Minimales Risiko – diese Systeme dürfen frei verwendet werden

Je höher das Risiko, desto strenger die Auflagen. Die Risikoklassifizierung entscheidet über Prüf- und Schulungspflichten.

Anbieter müssen umfassende Konformitätsverfahren durchführen, ein Risikomanagementsystem, technische Dokumentation und eine laufende Überwachung sicherstellen (Art. 16–25).

Betreiber, also Nutzer von KI, sind verpflichtet, Systeme vorschriftsgemäß zu verwenden, Mitarbeitende zu schulen (Art. 29) und Ergebnisse zu dokumentieren und zu hinterfragen.

Beide Rollen tragen Verantwortung – aber auf unterschiedlichen Ebenen.

Die Einstufung erfolgt über Artikel 6 und Anhang III des AI Acts. Dort sind genau definierte Anwendungsfälle gelistet – z. B. in HR, Bildung, Justiz, öffentlicher Verwaltung.

Zusätzlich gilt: Wenn eine KI Bestandteil eines bereits regulierten Produkts ist (z. B. Medizinprodukt), ist sie automatisch hochriskant.

Unternehmen sollten ihre Systeme daher frühzeitig auf den Anwendungszweck und den Kontext prüfen – ggf. mit juristischer oder technischer Unterstützung.

Das hängt von der Risikoklasse ab. Für Hochrisiko-KI sind u. a. vorgeschrieben:

  • Einrichtung eines Risikomanagementsystems (Art. 9)
  • Sicherstellung von Datenqualität (Art. 10)
  • Protokollierung (Art. 12)
  • Transparenz & Benutzerinformationen (Art. 13)
  • menschliche Überwachung (Art. 14)
  • und technische Robustheit (Art. 15)

Zudem müssen Schulungen und ein internes QM-System vorhanden sein.

Zentral ist die Rollenklärung nach Artikel 3: Bin ich Anbieter, Importeur, Händler oder Betreiber? Danach lassen sich Pflichten ableiten.

Unternehmen sollten Zuständigkeiten in der AI-Governance-Struktur festlegen – z. B. über eine interne Richtlinie, Verantwortlichkeitsmatrix oder dedizierte Rollen (wie KI-Beauftragte*r, falls freiwillig).

Dokumentation ist hier entscheidend, um im Fall einer Prüfung haftungsfest aufgestellt zu sein.

Laut Artikel 52 müssen Unternehmen sicherstellen, dass Nutzer erkennen:

  • wenn sie mit einer KI interagieren (z. B. Chatbot)
  • wenn Inhalte durch KI generiert wurden (z. B. Text, Bild, Audio)
  • wenn biometrische oder emotionale Merkmale erfasst werden

Diese Hinweise müssen klar, verständlich und vorab gegeben werden. Verstöße gegen diese Transparenzpflichten können sanktioniert werden – auch bei nicht-hochriskanter KI.

Verstöße gegen den AI Act können mit Geldbußen bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes geahndet werden – je nach Schwere und Art des Verstoßes (Art. 71).

Besonders streng wird der Einsatz verbotener KI oder manipulativer Systeme geahndet. Aber auch fehlende Schulung, unzureichende Dokumentation oder Intransparenz können Bußgelder und Reputationsschäden nach sich ziehen.

Transparenz und Verantwortung schaffen Vertrauen – nicht nur bei Behörden, sondern auch bei Kunden und Geschäftspartnern.

Unternehmen, die frühzeitig zeigen, dass sie KI ethisch, sicher und nachvollziehbar einsetzen, positionieren sich als vertrauenswürdige Innovatoren.

Das ist auch ein Wettbewerbsvorteil – etwa bei Ausschreibungen oder Investorenbewertungen.

Kurzfristig: Risikoklassifizierung der eingesetzten KI-Systeme, Sensibilisierung und Schulung der Mitarbeitenden, Transparenzmaßnahmen etablieren.

Langfristig: Aufbau einer AI-Governance-Struktur, Integration von Compliance-by-Design in Entwicklungsprozesse, regelmäßige Audits und Monitoring.

Wichtig ist, KI nicht nur technisch, sondern organisatorisch & ethisch abzusichern.