Überblick — Was ist der EU AI Act?
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende KI-Regulierungswerk. Er trat im August 2024 in Kraft und ist eine EU-Verordnung — das heißt, er gilt unmittelbar in allen Mitgliedstaaten, ohne dass nationale Umsetzung nötig wäre. Sein Grundansatz: KI-Anwendungen werden in vier Risikoklassen eingeteilt, die unterschiedliche Pflichten auslösen. Je höher das Risiko, desto strenger die Pflichten.
Der EU AI Act betrifft fast alle Mittelständler — als „Betreiber“ (deployer) von KI-Systemen. Auch wer KI nicht selbst entwickelt, sondern nur einsetzt (z. B. Microsoft Copilot, ChatGPT Enterprise, ein vom Berater implementiertes RAG-System), trägt Pflichten. Die exakten Pflichten hängen von der Risikoklasse der konkreten Anwendung ab.
Fristen 2025–2027
| Datum | Wirksamkeit |
|---|---|
| 02.02.2025 | Verbote (verbotene KI-Praktiken) + AI-Literacy-Verpflichtung Art. 4 |
| 02.08.2025 | Pflichten für GP-AI-Modelle (Art. 51 ff.) + Sanktionsregime + zentrale Stellen |
| 02.08.2026 | Vollständige Anwendbarkeit für Hochrisiko-Systeme aus Anhang III + Transparenzpflichten + Sanktionen voll |
| 02.08.2027 | Vollständige Anwendbarkeit für Hochrisiko-Systeme aus Anhang I (Sicherheits-Komponenten regulierter Produkte) |
Wichtig: Die AI-Literacy-Pflicht (Art. 4) gilt seit Februar 2025. Sie verpflichtet Anbieter und Betreiber, Maßnahmen zu treffen, um sicherzustellen, dass ihr Personal und alle anderen mit dem Betrieb betrauten Personen über ausreichende KI-Kompetenz verfügen. Konkret heißt das: Schulungsprogramm für alle Mitarbeiter, die KI-Tools nutzen.
Die vier Risikoklassen
Praktiken, die die EU als unvereinbar mit Grundrechten ansieht. Generelles Einsatzverbot.
Umfangreiche Pflichten: Risikomanagement, Datenqualität, Dokumentation, Transparenz, menschliche Aufsicht, Robustheit, Konformitätsbewertung.
Transparenzpflichten: Nutzer muss erkennen, dass er mit KI interagiert (Bots, Emotion Recognition, Deepfakes).
Keine spezifischen Pflichten aus dem AI Act (DSGVO und sonstige Rechte gelten weiter). Empfehlung: freiwillige Verhaltenskodexe.
Verbotene Praktiken (Art. 5)
Seit Februar 2025 gelten u. a. folgende Verbote — sie sind absolut, das heißt nicht durch Einwilligung oder Sonderfälle aufhebbar:
- Manipulative Techniken, die Menschen unbewusst beeinflussen und Schaden verursachen
- Ausnutzung von Vulnerabilitäten (Alter, Behinderung, sozioökonomische Lage)
- Social Scoring durch Behörden
- Predictive Policing rein auf Basis von Profiling
- Biometrische Massenüberwachung im öffentlichen Raum (mit eng umgrenzten Ausnahmen)
- Emotion Recognition am Arbeitsplatz und in Bildungseinrichtungen (mit medizinischen Ausnahmen)
- Biometrische Kategorisierung nach sensiblen Merkmalen (Religion, sexuelle Orientierung etc.)
- Untargeted Scraping zum Aufbau von Gesichtserkennungs-Datenbanken
Im typischen Mittelstands-Kontext sind diese Verbote selten direkt einschlägig — aber zu prüfen ist immer. Insbesondere Emotion Recognition am Arbeitsplatz ist relevant für Anwendungen wie Call-Center-Sentiment-Analyse, KI-gestützte Recruiting-Interviews oder Mitarbeiter-Bewertungstools.
Hochrisiko-Pflichten (Anhang III)
Anhang III listet die Bereiche, in denen KI-Systeme als hochrisikoreich gelten. Im Mittelstand häufig relevante Bereiche:
Pflichten für Hochrisiko-Systeme (Art. 8–17 EU AI Act):
- Risikomanagement-System einrichten (Art. 9)
- Daten-Governance: Trainingsdaten-Qualität, Bias-Bewertung (Art. 10)
- Technische Dokumentation erstellen und pflegen (Art. 11, Anhang IV)
- Aufzeichnungspflicht (Logging) während des Betriebs (Art. 12)
- Transparenz und Information für Betreiber (Art. 13)
- Menschliche Aufsicht ermöglichen (Art. 14)
- Robustheit, Genauigkeit, Cybersicherheit (Art. 15)
- Konformitätsbewertung vor Inverkehrbringen (Art. 43)
- Registrierung in der EU-Datenbank (Art. 49)
- Korrekturmaßnahmen und Meldepflicht bei schwerwiegenden Vorfällen (Art. 79)
Begrenztes Risiko — Transparenzpflichten
Art. 50 EU AI Act regelt Transparenzpflichten für vier Anwendungstypen, unabhängig von der Risikoklassifikation im Übrigen:
- Chatbots: Nutzer muss erkennen, dass er mit einer KI interagiert — es sei denn, das ist offensichtlich.
- Emotion-Recognition / Biometrische Kategorisierung: Information der betroffenen Person.
- Deepfakes: Klare Kennzeichnung als künstlich erzeugt.
- KI-generierter Text in Angelegenheiten öffentlichen Interesses: Kennzeichnung.
Im Mittelstand am häufigsten relevant: Chatbot-Kennzeichnung. Wer einen Voice-AI-Telefonassistenten oder einen Web-Chatbot einsetzt, muss erkennbar machen, dass die Person nicht mit einem Menschen spricht. Best Practice: explizite Begrüßung („Hier ist Ihr KI-Assistent von Firma X“).
GP-AI-Modelle (Art. 51 ff.)
General-Purpose-AI-Modelle (Foundation Models wie GPT-4, Claude, Gemini, Llama, Mistral) haben eigene Pflichten — diese liegen primär bei den Anbietern. Als Betreiber sind Sie nur indirekt betroffen: Sie sollten auf Anbieter setzen, die diese Pflichten erfüllen, und die bereitgestellte Dokumentation für Ihre eigene Compliance nutzen.
Konkret prüfen: Stellt der Anbieter technische Dokumentation, Trainingsdaten-Zusammenfassung und Urheberrechts-Compliance-Politik bereit? Bei systemischem Risiko (≥ 10^25 FLOPs) zusätzliche Anforderungen — relevant für GPT-4-Klasse-Modelle und größer.
Wer ist wofür verantwortlich?
Der EU AI Act definiert vier Rollen mit unterschiedlichen Pflichten:
- Anbieter (Provider) — entwickelt das KI-System und bringt es in Verkehr. Trägt die Hauptlast der Pflichten bei Hochrisiko-Systemen (Konformitätsbewertung, Dokumentation, etc.).
- Betreiber (Deployer) — setzt das KI-System unter eigener Verantwortung ein. Pflichten: Anweisungen des Anbieters befolgen, menschliche Aufsicht sicherstellen, Logs aufbewahren, schwerwiegende Vorfälle melden.
- Importeur — bringt KI-System aus Drittland in EU-Verkehr. Prüfung der Anbieter-Compliance.
- Vertreiber — verbreitet KI-Systeme in der Lieferkette. Compliance-Prüfungspflichten.
Achtung: Wenn Sie ein KI-System wesentlich modifizieren oder unter eigenem Namen vertreiben, können Sie zum Anbieter werden und die volle Pflichtenlast übernehmen — wichtig für Mandanten, die KI-Lösungen unter eigenem Brand an Kunden weiterreichen.
Umsetzungs-Roadmap für den Mittelstand
12-Monats-Roadmap zur EU-AI-Act-Compliance
- 1Monat 1
Inventur
Vollständige Auflistung aller im Unternehmen eingesetzten KI-Anwendungen — auch derer, die unter dem Radar laufen.
- →KI-Inventar
- →Anbieter-Liste
- 2Monat 2–3
Klassifikation
Jede Anwendung in eine der vier Risikoklassen einsortieren. Hochrisiko-Anwendungen markieren.
- →Klassifikations-Matrix
- →Pflichten-Mapping
- 3Monat 4–6
Pflichten umsetzen
AI-Literacy-Schulung, Transparenzhinweise, Hochrisiko-Pflichten technisch und organisatorisch umsetzen.
- →Schulung dokumentiert
- →Hochrisiko-Maßnahmen
- 4Monat 7–12
Governance
Laufende Überwachung, Vorfall-Meldewege, Anbieter-Audit, jährliche Klassifikations-Review.
- →AI-Governance-Handbuch
- →Quartals-Review
Checkliste — Sind Sie EU-AI-Act-fit?
- ☐ Vollständige Inventur aller eingesetzten KI-Anwendungen
- ☐ Risikoklassifikation jeder Anwendung dokumentiert
- ☐ Verbotene Praktiken systematisch ausgeschlossen
- ☐ AI-Literacy-Schulung für alle KI-Nutzer durchgeführt (Art. 4)
- ☐ Transparenzhinweise für Bots / Voice AI / Emotion Recognition / Deepfakes umgesetzt
- ☐ Bei Hochrisiko-Systemen: Risikomanagement, Daten-Governance, technische Dokumentation, Logging, menschliche Aufsicht implementiert
- ☐ Anbieter-Verträge auf EU-AI-Act-Konformität geprüft (DPA-Erweiterung)
- ☐ Vorfall-Meldeprozess definiert (für schwerwiegende Vorfälle nach Art. 79)
- ☐ KI-Compliance-Verantwortliche/r benannt (kann mit DSB kombiniert sein)
- ☐ Jährliche Review der Klassifikation und Pflichten gesetzt
- ☐ Mitarbeiter-Information / Betriebsvereinbarung (parallel zur DSGVO) angepasst
- ☐ Bei eigener Modifikation/Re-Branding von KI-Systemen: Anbieter-Pflichten geprüft
Der EU AI Act ist anspruchsvoll, aber für den Mittelstand mit gestaffeltem Vorgehen handhabbar. Die meisten Mittelstandsanwendungen fallen in die Klassen „Minimal“ oder „Begrenztes Risiko“ — die Pflichten dort sind überschaubar. Nur bei Hochrisiko-Anwendungen (Recruiting, Kreditwürdigkeit, kritische Infrastruktur) wird es aufwendig — dafür gibt es aber meist auch die wirtschaftlich entscheidenden Anwendungen, sodass die Compliance-Investition sich lohnt.
Wenn Sie Ihre eigenen Anwendungen klassifizieren oder eine vollständige AI-Act-Roadmap entwickeln wollen, prüfen wir das gerne in einem kostenfreien Erstgespräch. Vertieftes Material auch in unseren Pillar-Pages zu DSGVO & KI und Private AI.
