Use-Case Pillar · LLM

    ChatGPT im Unternehmen DSGVO-konform

    So setzen Sie ChatGPT-artige KI im Unternehmen rechtssicher ein — Vergleich aller Architektur-Optionen, DSGVO-Anforderungen, Mitarbeiter-Richtlinie, typische Use Cases mit klaren Empfehlungen.

    30 Tage
    zum ersten Pilot
    Ø 40 %
    weniger manuelle Arbeit
    100 %
    Hosting in Deutschland
    DSGVO + EU AI Act
    konform implementiert

    Die Mitarbeiter-Frage

    Anfang 2026 sind in fast jedem deutschen Mittelstand zwei Realitäten parallel sichtbar. Erstens: Mitarbeiter nutzen ChatGPT (oder andere LLMs) bereits — meist privat finanziert, oft auf eigene Faust, gelegentlich mit Geschäftsdaten als Eingabe. Diese unstrukturierte Nutzung schafft DSGVO-Risiken: Geschäftsgeheimnisse landen unkontrolliert bei US-Anbietern, personenbezogene Daten werden ohne Rechtsgrundlage verarbeitet, eine Datenschutz-Folgenabschätzung fehlt. Zweitens: Geschäftsleitungen sind sich des Themas bewusst, wissen aber oft nicht, welche der vielen Optionen die richtige ist.

    Dieser Artikel räumt auf. Er stellt die vier zulässigen Architektur-Optionen vor, vergleicht sie strukturiert, und empfiehlt eine konkrete organisatorische Aufstellung (Richtlinie, Schulung, Betriebsvereinbarung). Für vertiefte juristische Aspekte siehe unsere Pillar-Pages zu DSGVO & KI und EU AI Act.

    Die vier zulässigen Architektur-Optionen

    1. Azure OpenAI mit EU-Region — Microsoft hostet OpenAI-Modelle in Sweden Central oder Switzerland North. DPA mit Trainingsausschluss verfügbar, EU-Datenverarbeitung garantiert.
    2. ChatGPT Enterprise mit EU-Region — OpenAI-eigenes Hosting in Frankfurt. Höhere Modellqualität in einigen Bereichen, plus Custom GPTs.
    3. EU-eigene LLM-Anbieter — Mistral La Plateforme (Paris) oder Aleph Alpha PhariaAI (Heidelberg). Kein US-Mutterkonzern, vollständig EU-Hosting.
    4. Selbst gehostete Open-Weight-Modelle — Llama 3.x, Mistral Open-Weight oder Phi auf Hetzner/IONOS GPU-Server. Maximale Kontrolle.

    Daneben sind Microsoft 365 Copilot und GitHub Copilot weitere produkt-spezifische Optionen, die jeweils eigene DSGVO-Bewertungen brauchen.

    Vergleichsmatrix

    Tabelle horizontal scrollen
    Vergleich der LLM-Architektur-Optionen für DSGVO-konforme Mittelstands-Nutzung
    Kriterium
    Azure OpenAI EU
    Microsoft
    ChatGPT Enterprise EU
    OpenAI
    Mistral / Aleph Alpha
    EU-eigen
    Open-Weight selbst gehostet
    Llama, Mistral OW
    DSGVO-konform implementierbar
    Schrems-III-Restrisiko
    US-Mutterkonzern
    kein US-Bezug
    Top-Modellqualität (GPT-4-Klasse)
    Mistral Large gut, etwas darunter
    Llama 3.1 70B+ gut
    Custom GPTs / Agents
    voll konfigurierbar
    Office-Integration
    via Copilot
    Initial-Aufwand
    niedrig
    hoch
    Lizenzkosten / Nutzer
    API + Copilot 30 $60 $/MoAPI-VolumenHardware-Kosten
    Mitarbeiter-Akzeptanz (UX)
    Copilot in Office
    Geeignet für hochsensible Daten

    Azure OpenAI mit EU-Region

    Microsoft Azure OpenAI Service in Sweden Central (Stockholm) oder Switzerland North (Zürich) ist die häufigste Wahl in unseren Mandaten. Vorteile: Microsoft-Vertragsbasis ist im Mittelstand oft schon vorhanden, DPA-Erweiterung für Azure OpenAI ist Standard, Trainingsausschluss vertraglich, Compliance-Reporting (Auditing, Logging) gut integriert. Daten werden in der gewählten Region verarbeitet — auch Datenresidenz für „Stored Conversation Data“ garantiert.

    Architektur-Pattern im Mittelstand: API-basierter Zugriff aus eigenen Anwendungen + parallel Microsoft 365 Copilot für allgemeine Office-Produktivität. Beide nutzen die gleiche Microsoft-Compliance-Infrastruktur.

    ChatGPT Enterprise mit EU-Region

    OpenAI bietet ChatGPT Enterprise mit EU-Hosting in Frankfurt. Vorteile: höchste Modellqualität an einigen Stellen (besonders bei komplexen Reasoning-Tasks), Custom GPTs für interne Anwendungen, Code-Interpreter, Datei-Uploads, lange Kontexte. Nachteile: höherer Preis pro Nutzer (~60 USD/Monat ab 150 Nutzer-Mindestabnahme), weniger Microsoft-Integration als Copilot.

    Empfohlene Konstellation: Power-User (10–50 Personen in Marketing/F&E/Strategie) bekommen ChatGPT Enterprise, breite Belegschaft Copilot.

    Mistral EU & Aleph Alpha

    Beide Anbieter bieten produktionsreife LLMs mit vollem EU-Hosting und ohne US-Mutterkonzern. Damit entfällt das Schrems-III-Restrisiko strukturell. Mistral La Plateforme (Paris) ist im allgemeinen Mittelstand verbreiteter, hat eine starke API und gute Modell-Qualität (Mistral Large für Top-Pfade, Mistral Small für kosteneffiziente Massendaten). Aleph Alpha PhariaAI ist Heidelberger Eigenentwicklung mit Schwerpunkt regulierte Branchen, Behörden und Verteidigung — mit eigener On-Premise-Option.

    Selbst gehostete Open-Weight-Modelle

    Llama 3.1/3.3 70B oder Mistral Open-Weight Modelle (z. B. Mistral Small 3.x) auf eigener Infrastruktur (Hetzner GPU-Server mit H100/A100). Vorteile: vollständige Kontrolle, keine Anbieter-Abhängigkeit, fixe Kosten. Nachteile: höherer Initial-Aufwand (Hardware, Setup, Wartung), höhere Betriebsverantwortung, im Modell-Update-Rhythmus etwas langsamer als kommerzielle Anbieter.

    Empfohlen für: Hochsensible Daten (z. B. F&E-Daten, Konstruktions-Geheimnisse), hohe Volumina (wo API-Kosten bei kommerziellen Anbietern explodieren würden), strenge Vendor-Lock-in-Vermeidung.

    KI-Nutzungsrichtlinie für Mitarbeiter

    Eine gute KI-Nutzungsrichtlinie ist 2–4 Seiten und definiert klar:

    Standard-Aufbau einer KI-Nutzungsrichtlinie

    1. 1

      Zugelassene Tools

      Welche Tools sind erlaubt? Welche sind ausdrücklich nicht erlaubt? Listing mit Update-Quartal.

      • Whitelist
      • Blacklist
    2. 2

      Datenklassen

      3-Stufiges Modell: öffentlich / intern / vertraulich/personenbezogen. Pro Stufe definiert, welche Tools genutzt werden dürfen.

      • Datenklassen-Matrix
    3. 3

      Verbotene Anwendungen

      Bewertungen, automatisierte Entscheidungen, Anwendungen aus EU-AI-Act-Verbotsliste, sensible Mitarbeiter-Daten.

      • Verbots-Katalog
    4. 4

      Schulungspflicht

      AI Literacy nach EU AI Act Art. 4. Onboarding-Modul und jährliches Refresh.

      • Schulungsplan

    Beispiel-Datenklassen-Matrix (verkürzt)

    Tabelle horizontal scrollen
    Welche Daten dürfen in welches Tool?
    Kriterium
    ChatGPT Free
    privat
    Copilot / ChatGPT Enterprise EU
    Unternehmens-Account
    Private AI
    selbst gehostet
    Öffentliche Daten (Webseiten-Texte, Wikipedia)
    Interne, nicht-personenbezogene Daten (anonymisierte Statistiken)
    Vertrauliche Geschäftsgeheimnisse (Konstruktion, Strategie)
    nur mit Approval
    Personenbezogene Mitarbeiter-Daten
    Sonderfreigabe
    DSFA + BV nötig
    Personenbezogene Kundendaten (Kontaktdaten)
    begrenzt
    Sensible Daten Art. 9 DSGVO (Gesundheit, Religion)
    spezielle DSFA + Rechtsgrundlage

    Konkrete Use Cases

    Wo bringen ChatGPT-artige LLMs im Mittelstand operativ den meisten Nutzen?

    • E-Mail-Bearbeitung (Antwort-Entwürfe, Übersetzungen, Zusammenfassungen langer Threads) — über Copilot in Outlook für die ganze Belegschaft.
    • Dokument-Generierung (Berichte, Memos, Präsentationen) — über Copilot in Word/PowerPoint oder ChatGPT Enterprise.
    • Recherche & Zusammenfassung (Marktstudien, Wettbewerbsanalyse, Fachliteratur) — ChatGPT Enterprise mit Browse, oder Mistral Large.
    • Code-Unterstützung (für IT-Mannschaft) — GitHub Copilot Business mit DPA.
    • Datenanalyse (Excel-Auswertungen, Insights) — Copilot in Excel oder ChatGPT Advanced Data Analysis.
    • Kreativarbeit (Marketing-Texte, Bild-Briefings, Konzeptentwürfe) — ChatGPT Enterprise oder Claude.
    • Schulungs-Material (Erstellung von Lerninhalten, FAQ, Onboarding-Texten) — alle Optionen geeignet.
    • Geschäftsspezifische Wissens-Bots (RAG auf interne Quellen) — Private AI klar bevorzugt, siehe RAG-Pillar.

    Verteilung der LLM-Architekturen in 17 KBD-Mandaten 2025–2026

    47 %
    nutzen Microsoft Copilot
    32 %
    ChatGPT Enterprise EU
    38 %
    Mistral / Aleph Alpha im Mix
    28 %
    Open-Weight selbst gehostet

    (Mehrfachnennungen — viele Mandanten nutzen Kombinationen.)

    Wenn Sie ChatGPT-artige KI in Ihrem Unternehmen rechtssicher aufsetzen wollen, ist der einfachste Schritt ein kostenfreies Erstgespräch. Wir analysieren Ihre Use-Case- und Daten-Klassen, empfehlen die passende Architektur und unterstützen optional bei der KI-Nutzungsrichtlinie und Betriebsvereinbarung. Vertieftes Material in Tool-Vergleich, DSGVO-Pillar und EU AI Act-Pillar.

    Häufig gestellte Fragen

    Dürfen Mitarbeiter ChatGPT (Free) im Unternehmen nutzen?
    Sehr eingeschränkt. ChatGPT Free ist DSGVO-rechtlich problematisch (US-Hosting, Trainings-Nutzung der Eingaben in der Standard-Variante). Für die Verarbeitung personenbezogener oder vertraulicher Geschäftsdaten in der Standard-Free-Variante: nein. Für nicht-personenbezogene, nicht-vertrauliche Allgemeinfragen: oft praktiziert, aber rechtlich grenzwertig. Empfohlene Lösung: kontrollierter Tenant (siehe unten).
    Was ist ChatGPT Enterprise?
    Die Business-Variante mit DPA, Trainingsausschluss, EU-Hosting (Frankfurt) und administrativen Funktionen (SSO, Compliance-Logging). Listenpreis ca. 60 USD pro Nutzer/Monat (ab 150 Nutzer). DSGVO-konform mit korrektem Setup, mit Schrems-III-Restrisiko (US-Mutterkonzern).
    Was ist Azure OpenAI?
    Microsoft hostet OpenAI-Modelle in eigenen Rechenzentren — verfügbar in Sweden Central und Switzerland North für EU-Datenverarbeitung. DPA-fähig, Trainingsausschluss vertraglich. Wird oft bevorzugt von Mittelständlern, die bereits eine Azure-Beziehung haben.
    Welche EU-eigenen LLMs gibt es?
    Mistral (Frankreich) mit La Plateforme EU-Hosting in Paris. Aleph Alpha (Deutschland) mit PhariaAI auf eigenen DE-Servern. Beide bieten produktionsreife LLMs mit vollem EU-Hosting und ohne US-Mutterkonzern. Mistral ist im Mittelstand populärer, Aleph Alpha bei Behörden/Verteidigung/regulierten Branchen.
    Lohnt sich selbst gehostetes Open-Weight-LLM?
    Bei spezifischen Konstellationen ja: hochsensible Daten, hohe Volumina, langer Planungshorizont. Llama 3.x oder Mistral Open-Weight auf Hetzner GPU-Server. Initial-Aufwand und Betriebs-Reife sind aber höher — wir empfehlen das nur, wenn die anderen Optionen nicht passen.
    Welche Mitarbeiter-Richtlinie sollte ich aufsetzen?
    Eine 'KI-Nutzungsrichtlinie' mit drei Klassen: (1) Welche Tools sind zugelassen? (2) Welche Datenklassen dürfen mit welchen Tools verarbeitet werden? (3) Welche Anwendungen sind ausgeschlossen (z. B. Bewertungen, automatisierte Entscheidungen)? Plus Schulungspflicht (AI Literacy nach EU AI Act).
    Brauche ich für ChatGPT-Nutzung eine DSFA?
    Bei Verarbeitung personenbezogener Daten: ja. Wir empfehlen eine DSFA pro 'Verarbeitungsklasse' (z. B. eine DSFA für 'allgemeine Mitarbeiter-Produktivität', eine andere für 'Vertriebsanalyse mit Kundendaten'). Vertiefung im DSGVO-Leitfaden.
    Was ist mit dem Betriebsrat?
    Bei Einsatz von ChatGPT/Copilot im Unternehmen ist Mitbestimmung nach BetrVG § 87 Abs. 1 Nr. 6 typischerweise Pflicht. Eine Betriebsvereinbarung sollte definieren: Verwendungszweck, Datenklassen, Bewertungs-Ausschluss, Lösch-/Aufbewahrungs-Logik, Information der Mitarbeiter.

    Kostenfreie KI-Potenzialanalyse

    30 Minuten Strategiegespräch mit einem KBD-Berater. Konkret, ehrlich, ohne Verkaufsdruck — wir sagen Ihnen offen, ob KI für Ihren Use Case lohnt.

    • Analyse Ihrer 3 wichtigsten Prozesse
    • Konkrete Roadmap mit Aufwandsschätzung
    • Indikative ROI-Rechnung für Ihren Case

    Ergänzend lesenswert