Pillar Page · Datenschutz

    DSGVO-konforme KI im Unternehmen

    Wie Sie generative KI im Unternehmen DSGVO-konform einsetzen — von der Rechtsgrundlage über die Datenschutz-Folgenabschätzung bis zum Auftragsverarbeitungsvertrag. Der Praxis-Leitfaden für 2026.

    30 Tage
    zum ersten Pilot
    Ø 40 %
    weniger manuelle Arbeit
    100 %
    Hosting in Deutschland
    DSGVO + EU AI Act
    konform implementiert

    Rechtslage 2026 — Was gilt aktuell?

    Wer KI im Unternehmen einsetzt, bewegt sich 2026 in einem mehrschichtigen Regelwerk. Die DSGVO regelt die Verarbeitung personenbezogener Daten und ist seit 2018 verbindlich. Der EU AI Act (Verordnung (EU) 2024/1689) trat im August 2024 in Kraft, mit gestaffelten Anwendungsfristen — wesentliche Pflichten für GP-AI-Modelle ab August 2025, für hochrisiko-Anwendungen ab August 2026, vollständige Anwendbarkeit ab August 2027. Hinzu kommen branchenspezifische Regeln (BDSG für Beschäftigtendatenschutz, MDR für medizinische Geräte, FinDAG für Finanzdienstleister, BetrVG für Mitbestimmung), das deutsche Geschäftsgeheimnisgesetz (GeschGehG) und das künftige Beschäftigtendatengesetz.

    Diese Schichten überlagern sich. Eine produktive KI-Anwendung im Mittelstand muss alle relevanten Regelwerke gleichzeitig erfüllen. Wer DSGVO-Konformität allein für ausreichend hält, übersieht die EU-AI-Act-Klassifikationspflichten und die Mitbestimmungs-Erfordernisse. Wer nur den EU AI Act betrachtet, übersieht die Datenschutz-Verarbeitungsverzeichnis- und DSFA-Pflichten.

    Rechtsgrundlage — Worauf stützen Sie die Verarbeitung?

    Die DSGVO erlaubt die Verarbeitung personenbezogener Daten nur, wenn eine Rechtsgrundlage nach Art. 6 DSGVO vorliegt. Für KI-Anwendungen sind in der Praxis vier Grundlagen relevant:

    • Art. 6 Abs. 1 lit. a (Einwilligung) — Selten praktikabel im B2B/Mitarbeiter-Kontext, weil Einwilligungen frei widerrufbar und im Beschäftigungsverhältnis oft nicht freiwillig sind.
    • Art. 6 Abs. 1 lit. b (Vertragserfüllung) — Anwendbar, wenn die KI-Anwendung zur Erfüllung eines Vertrags mit der betroffenen Person nötig ist (z. B. KI-gestützte Sachbearbeitung eines Versicherungsvorgangs).
    • Art. 6 Abs. 1 lit. c (Rechtspflicht) — Bei gesetzlich vorgeschriebenen KI-Anwendungen, eher selten.
    • Art. 6 Abs. 1 lit. f (Berechtigte Interessen) — Häufigste Grundlage für KI-Anwendungen im Geschäftskontext. Erfordert eine dokumentierte Interessenabwägung.

    Bei besonderen Kategorien personenbezogener Daten (Art. 9 DSGVO — z. B. Gesundheit, religiöse oder weltanschauliche Überzeugung, biometrische Daten) ist zusätzlich eine spezielle Rechtsgrundlage nötig, typischerweise ausdrückliche Einwilligung oder eine gesetzliche Spezialgrundlage.

    Datenschutz-Folgenabschätzung (DSFA)

    Eine DSFA ist nach Art. 35 DSGVO verpflichtend, wenn die Verarbeitung „voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen“ birgt. Die Liste der Aufsichtsbehörden („Black List“, „Muss-Listen“) enthält explizit die Verwendung neuer Technologien und die automatisierte Entscheidungsfindung — beide treffen auf die meisten KI-Anwendungen zu.

    Inhalte einer KBD-Standard-DSFA für KI-Anwendungen:

    1. Systembeschreibung: Zweck, Datenkategorien, Datenflüsse, beteiligte Systeme, beteiligte Anbieter
    2. Bewertung der Notwendigkeit und Verhältnismäßigkeit
    3. Identifikation und Bewertung der Risiken (für Betroffene): Diskriminierung, Re-Identifikation, fehlerhafte automatisierte Entscheidungen, Modell-Drift, Halluzinationen, unbefugter Zugriff
    4. Technische und organisatorische Maßnahmen zur Risikoreduktion
    5. Restrisiko-Bewertung und ggf. Konsultation der Aufsichtsbehörde
    6. EU-AI-Act-Klassifikation (verboten / hochrisiko / begrenzt / minimal)
    7. Review-Termin (typisch jährlich oder bei Wesentlicher Änderung)

    DSFA-Workflow im KBD-Vorgehen

    1. 1Tag 1–2

      Scoping

      Use Case beschreiben, Datenflüsse mappen, betroffene Personen-Kategorien identifizieren.

      • Systembeschreibung
      • Datenfluss-Diagramm
    2. 2Tag 3–4

      Risiko-Workshop

      Stakeholder-Workshop mit DSB, Process-Owner, IT, optional Betriebsrat.

      • Risiko-Register
      • TOM-Liste
    3. 3Tag 5–6

      Bewertung

      Risiken bewerten, Maßnahmen zuordnen, Restrisiko bestimmen.

      • Vollständige DSFA
      • Maßnahmen-Plan
    4. 4Tag 7

      Freigabe

      DSB-Stellungnahme, ggf. Konsultation Aufsichtsbehörde, Verabschiedung Geschäftsleitung.

      • Verabschiedete DSFA
      • Review-Termin

    Auftragsverarbeitung (AVV / DPA)

    Wer KI-Modelle externer Anbieter nutzt (OpenAI, Anthropic, Google, Mistral, Microsoft Azure, AWS, Cohere, Voyage etc.), muss mit jedem Anbieter einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO abschließen. Der Vertrag muss die in Art. 28 Abs. 3 genannten Mindestinhalte enthalten — und für KI-Anbieter zusätzlich:

    • Trainingsausschluss: Ihre Daten dürfen nicht zum Training fremder Modelle genutzt werden.
    • Hosting-Standorte: Konkret benannt, idealerweise EU/Deutschland.
    • Subunternehmer-Liste: Aktuell und mit Änderungs-Anzeigepflicht.
    • Aufbewahrungsfristen: Kurz, nachvollziehbar, technisch erzwungen.
    • Audit-Rechte: Mindestens Einsicht in SOC-2- oder ISO-27001-Berichte.
    • Schrems-II-Klauseln: Verhalten bei US-Behörden-Zugriff, Standardvertragsklauseln nach Anhang III.
    • Halluzinations-/Modell-Risiko: Hinweis- und Mitwirkungspflichten bei erkanntem Modell-Fehlverhalten.

    Wir stellen unseren Mandanten ein KBD-Standard-DPA-Template zur Verfügung, das diese Punkte abdeckt und nur unternehmensspezifisch angepasst werden muss.

    Hosting & Drittlandtransfer (Schrems II)

    Seit dem Schrems-II-Urteil (EuGH C-311/18, Juli 2020) und der nachfolgenden EDSA-Empfehlung sind Datentransfers in die USA nur unter strengen Bedingungen zulässig. Das EU-US Data Privacy Framework (DPF, seit 2023) hat die Lage entspannt, aber nicht final geklärt — eine erneute EuGH-Klage ist anhängig. Für sensible Daten empfehlen wir konsequent EU/Deutschland-Hosting:

    Tabelle horizontal scrollen
    Hosting-Optionen im DSGVO-Vergleich
    Kriterium
    DE Hosting
    Hetzner, IONOS, OVH FR
    EU Hosting
    Azure EU, AWS EU
    US Hosting + DPF
    OpenAI, Anthropic
    Schrems-II-Risiko
    praktisch null
    EU-Anbieter ja, US-Anbieter EU-Region: rechtlich unklar
    DPF-Klage anhängig
    DPA-Verhandlung
    einfach
    Standardklauseln nötig
    Betroffenenrechte umsetzbar
    Verfügbare Modelle (2026)
    Open-Weight + Aleph Alpha + Mistral
    GPT, Claude, Mistral, Llama
    alle
    Modell-Qualität (Top-Tier)
    Empfohlen für sensible Daten?

    Betroffenenrechte umsetzbar machen

    Die DSGVO-Betroffenenrechte (Art. 12–22) müssen auch bei KI-Anwendungen umsetzbar sein. Konkret:

    • Auskunft (Art. 15): Welche personenbezogenen Daten verarbeitet die KI über die betroffene Person?
    • Berichtigung (Art. 16): Korrektur falscher Daten — bei RAG-Systemen über Quellsystem-Update + Re-Indexierung.
    • Löschung (Art. 17): Daten aus Vektor-DB, Logs, Trainings-Sets entfernen. Bei trainierten Modellen technisch schwierig — möglichst nicht trainieren mit personenbezogenen Daten.
    • Einschränkung (Art. 18): KI-Verarbeitung pausieren bei strittigen Daten.
    • Widerspruch (Art. 21): Insbesondere bei berechtigtem Interesse als Rechtsgrundlage relevant.
    • Automatisierte Entscheidung (Art. 22): Nur unter strengen Bedingungen zulässig — Mensch-im-Loop ist Standard-Empfehlung.

    Mitarbeiter, Betriebsrat und BetrVG

    Mitarbeiterdaten sind eine besonders sensible Kategorie — nicht durch Art. 9 DSGVO, sondern durch BDSG § 26 und das künftige Beschäftigtendatengesetz. Wenn KI im Unternehmen Mitarbeiterdaten verarbeitet (selbst wenn nur am Rande, z. B. via Workflow-Logging), gelten mehrere Pflichten:

    • Mitarbeiter-Information nach Art. 13 DSGVO und BDSG § 26 (umfassend, vor Beginn der Verarbeitung).
    • Mitbestimmung des Betriebsrats nach BetrVG § 87 Abs. 1 Nr. 6 — bei „technischen Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen“. KI-Tools fallen fast immer darunter.
    • Betriebsvereinbarung als typische Lösung — definiert Zweck, Datenverwendung, Bewertungs-Ausschlüsse, Speicherfristen, Zugriffsrechte.
    • Schulung der Mitarbeiter zu erlaubter und unerlaubter Nutzung von KI-Tools.

    Wir empfehlen, den Betriebsrat von Anfang an einzubeziehen — nicht erst beim Roll-out. In unseren Mandaten dauern Betriebsvereinbarungen typischerweise 6–10 Wochen Verhandlung.

    KI-Incident-Response

    Ein DSGVO-relevanter Incident bei KI-Anwendungen kann verschiedene Formen annehmen:

    • Unbefugter Zugriff auf das KI-System (klassischer Datenschutz-Vorfall)
    • Halluzination mit Daten-Leak (KI gibt geheime Information ungeplant aus)
    • Modell-Drift mit fehlerhaften Entscheidungen (z. B. diskriminierende Ergebnisse)
    • Anbieter-Vorfall (z. B. OpenAI-Datenpanne 2023, Verlust von Konversations-Historien)
    • Subunternehmer-Wechsel ohne ordnungsgemäße Anzeige

    Für jeden dieser Fälle braucht es ein definiertes Vorgehen: Wer wird benachrichtigt? Wie wird der Schaden bewertet? Wann muss die Aufsichtsbehörde gemeldet werden (72 h Frist!)? Wann werden Betroffene informiert (bei hohem Risiko)? Wie wird die Datenpanne dokumentiert?

    Checkliste: DSGVO-konforme KI-Implementierung

    1. ☐ Use-Case-Beschreibung mit Datenflüssen erstellt
    2. ☐ Rechtsgrundlage nach Art. 6 (und ggf. Art. 9) DSGVO bestimmt und dokumentiert
    3. ☐ Verzeichnis der Verarbeitungstätigkeiten ergänzt
    4. ☐ DSFA durchgeführt und dokumentiert
    5. ☐ AVV/DPA mit allen externen KI-Anbietern abgeschlossen, inkl. Trainingsausschluss
    6. ☐ Hosting-Strategie definiert (Standardmäßig EU/DE)
    7. ☐ Schrems-II-Bewertung dokumentiert (Standardklauseln, TIA bei US-Anbietern)
    8. ☐ Subunternehmer-Liste eingeholt und überwacht
    9. ☐ Betroffenen-Information aktualisiert
    10. ☐ Mitarbeiter-Information nach Art. 13 DSGVO erfolgt
    11. ☐ Betriebsvereinbarung verhandelt (falls Beschäftigtendaten)
    12. ☐ Technische Maßnahmen umgesetzt (Verschlüsselung, Zugriffskontrolle, Logging)
    13. ☐ Eval-Pipeline für Modell-Qualität etabliert
    14. ☐ Mensch-im-Loop bei kritischen Entscheidungen sichergestellt
    15. ☐ Lösch- und Aufbewahrungskonzept umgesetzt
    16. ☐ Incident-Response-Prozedur dokumentiert
    17. ☐ Schulung der Anwender durchgeführt
    18. ☐ EU-AI-Act-Risikoklassifikation bestimmt
    19. ☐ Review-Termin für jährliche DSFA-Aktualisierung gesetzt

    Datenschutz-Beobachtungen aus 17 KBD-Mandaten 2025/2026

    100 %
    unserer KI-Mandate haben DSFA durchgeführt
    88 %
    haben EU/DE-only-Hosting
    6
    Wochen Ø Betriebsrat-Verhandlung
    0
    DSGVO-Incidents in unseren Mandaten

    Wenn Sie konkret eine KI-Anwendung DSGVO-konform aufsetzen wollen, ist der einfachste Schritt ein kostenfreies Erstgespräch. Wir prüfen Ihren Use Case und liefern eine erste Datenschutz-Indikation. Für vertiefte Ressourcen siehe unsere Pillar-Pages zu EU AI Act und Private AI Hosting.

    Häufig gestellte Fragen

    Darf ich ChatGPT überhaupt im Unternehmen einsetzen?
    Ja, mit Einschränkungen. ChatGPT in der kostenfreien oder Plus-Variante: nur mit nicht-personenbezogenen, nicht-vertraulichen Daten. ChatGPT Enterprise: mit DPA möglich, aber Hosting außerhalb EU. ChatGPT mit deutscher Tenant-Lokalisierung über Microsoft Azure OpenAI Sweden Central oder Switzerland North: deutlich besser. Selbst gehostete Open-Weight-Alternativen (Llama, Mistral): empfehlenswert für sensible Daten.
    Brauche ich für jede KI-Anwendung eine DSFA?
    Nicht für jede, aber für die meisten. Eine DSFA ist verpflichtend, wenn die Verarbeitung 'voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen' birgt (Art. 35 DSGVO). Bei KI-Anwendungen mit personenbezogenen Daten und/oder automatisierten Entscheidungen ist das fast immer der Fall. Ausnahme: KI-Anwendungen ohne Personenbezug (z. B. Predictive Maintenance auf Sensordaten ohne Mitarbeiter-Bezug).
    Was muss in einem AVV mit einem KI-Anbieter stehen?
    Standardklauseln nach Art. 28 DSGVO plus KI-spezifische Ergänzungen: Trainingsausschluss (keine Verwendung Ihrer Daten zum Modell-Training), Hosting-Standorte explizit genannt, Subunternehmer-Liste, Lösch- und Aufbewahrungsfristen, Audit-Rechte, Verhalten bei Schrems-II-Sachverhalt. Wir verwenden in unseren Mandaten ein Standard-DPA-Template, das diese Punkte abdeckt.
    Reicht deutsches Hosting für DSGVO-Konformität?
    Nicht automatisch — aber es ist ein wichtiger Baustein. DSGVO-Konformität entsteht aus Rechtsgrundlage + Verarbeitungsverzeichnis + DSFA + AVV + Sicherheitsmaßnahmen + Betroffenenrechten. Deutsches/EU-Hosting löst das Drittlandtransfer-Problem (Schrems II) und vereinfacht den DPA-Prozess deutlich.
    Wie ist die Lage bei Mitarbeiter-Daten in KI-Tools?
    Komplex und oft Betriebsrat-pflichtig. Wenn KI Daten verarbeitet, die Rückschlüsse auf Verhalten oder Leistung von Mitarbeitern erlauben (z. B. KI-gestützte Bewertungen, automatisierte Entscheidungen), ist eine Betriebsvereinbarung typischerweise erforderlich (BetrVG § 87 Abs. 1 Nr. 6). Auch wenn KI nur 'unterstützend' wirkt, ist Information und ggf. Mitbestimmung Pflicht.
    Was passiert bei einem KI-Incident?
    Ein DSGVO-relevanter Incident (z. B. unbefugter Zugriff, Daten-Leak via Halluzination, Kompromittierung des Modells) ist innerhalb von 72 Stunden an die zuständige Aufsichtsbehörde zu melden (Art. 33 DSGVO). Bei hohem Risiko zusätzlich an die Betroffenen (Art. 34 DSGVO). Wir empfehlen eine vorab definierte KI-Incident-Response-Prozedur als Teil der Strategie.
    Was ist mit dem EU AI Act?
    Der EU AI Act ergänzt die DSGVO. Während die DSGVO vor allem personenbezogene Daten schützt, regelt der EU AI Act Risikoklassen von KI-Anwendungen unabhängig vom Personenbezug. Für KI-Anwendungen mit Personenbezug gelten beide Regelwerke parallel. Vertiefung in unserem EU-AI-Act-Leitfaden.
    Wer haftet, wenn die KI einen Fehler macht?
    Grundsätzlich der einsetzende Verantwortliche (das Unternehmen), nicht der KI-Anbieter. Deshalb ist Mensch-im-Loop bei kritischen Entscheidungen so wichtig, ebenso Modell-Eval und Logging. Bei vertraglich klar abgegrenzter Anbieter-Verantwortung (z. B. zugesicherte Modell-Performance, Halluzinations-Prävention) können Teilhaftungen abweichen. Im Zweifel anwaltliche Beratung im konkreten Fall.

    Kostenfreie KI-Potenzialanalyse

    30 Minuten Strategiegespräch mit einem KBD-Berater. Konkret, ehrlich, ohne Verkaufsdruck — wir sagen Ihnen offen, ob KI für Ihren Use Case lohnt.

    • Analyse Ihrer 3 wichtigsten Prozesse
    • Konkrete Roadmap mit Aufwandsschätzung
    • Indikative ROI-Rechnung für Ihren Case

    Ergänzend lesenswert