Glossar · Modelle & Methoden

    LLM — Large Language Model

    Ein Large Language Model (LLM) ist ein neuronales Netz, das auf riesigen Textmengen trainiert wurde und natürliche Sprache verstehen, generieren und transformieren kann. LLMs sind die technologische Basis hinter ChatGPT, Claude, Gemini und allen modernen Generativen-KI-Anwendungen im Unternehmen.

    30 Tage
    zum ersten Pilot
    Ø 40 %
    weniger manuelle Arbeit
    100 %
    Hosting in Deutschland
    DSGVO + EU AI Act
    konform implementiert

    Definition

    Ein Large Language Model ist ein maschinelles Lernmodell mit typischerweise mehreren hundert Milliarden Parametern, das auf einem Korpus aus typischerweise 1–15 Billionen Tokens (Wort-Einheiten) trainiert wurde. Das Ergebnis ist ein System, das natürliche Sprache statistisch sehr präzise modelliert — es „weiß“, welches Wort mit welcher Wahrscheinlichkeit auf welche Vorgängerworte folgt.

    Aus dieser Statistik entstehen emergent erstaunliche Fähigkeiten: Übersetzung, Zusammenfassung, Code-Generierung, logisches Schlussfolgern, Schreiben in beliebigen Stilen. Wichtig zu verstehen: ein LLM versteht nicht im menschlichen Sinne, es modelliert Sprache statistisch — daraus ergeben sich sowohl die Stärken als auch die berüchtigten Halluzinationen.

    Funktionsweise — vereinfacht

    Ein LLM zerlegt Eingabetext in Tokens (typischerweise 0,5–4 Zeichen pro Token), wandelt diese in numerische Vektoren (Embeddings) und propagiert sie durch dutzende bis hunderte Transformer-Schichten. Am Ende des Forward-Passes berechnet das Modell für jedes mögliche nächste Token eine Wahrscheinlichkeit. Es wählt eines davon (meist mit etwas Zufall via „Temperature“), hängt es an die Sequenz und wiederholt — Token für Token.

    Die Magie steckt in den Parametern (Gewichten), die im aufwendigen Pretraining festgelegt wurden. Modernes Training braucht tausende GPU-Karten über mehrere Monate, was die Foundation-Models effektiv auf eine Handvoll Anbieter konzentriert.

    Anbieter im Vergleich (Stand 2026)

    Tabelle horizontal scrollen
    Die fünf relevantesten LLM-Anbieter für Mittelstand-Use-Cases
    Kriterium
    Stärke
    Preis-Niveau
    EU-Hosting?
    Wann?
    Anthropic Claude 3.5 Sonnet
    Längere Kontexte, weniger HalluzinationenMittel
    Frankfurt
    Wissens-RAG, komplexes Reasoning
    OpenAI GPT-4o
    Function Calling, MultimodalitätMittel-hoch
    Azure Sweden
    Agenten-Workflows, Bild-/Audio-Tasks
    Mistral Large
    Europäisch, gute PerformanceGünstig
    Paris
    Hohe DSGVO-Sensibilität
    Google Gemini 1.5 Pro
    1M Token-KontextfensterMittel
    multi-region
    Sehr lange Dokumente
    Meta Llama 3.x (Open Weight)
    Self-Hosting möglichHardware-abhängig
    Eigenes Hosting
    Air-Gapped, Hyper-Scale

    Was kostet ein LLM wirklich?

    Die Kostenrechnung läuft pro Token. Beispiel Claude 3.5 Sonnet (Stand 2026): 3 € pro 1 Million Input-Token, 15 € pro 1 Million Output-Token. Eine typische Wissens-Anfrage (System-Prompt + Kontext + Antwort = ca. 4.500 Tokens) kostet ca. 0,02 €. Bei 100 Anfragen pro Tag und Nutzer ergibt das knapp 60 €/Monat.

    Wir sehen in der Praxis im Mittelstand 5–15 €/Monat pro aktivem Power-User, weil die meisten Mitarbeiter weniger als 100 Anfragen pro Tag stellen. Für reine Chatbot-Use-Cases (z. B. Kundenservice ohne Login) rechnen wir pro Konversation: 0,15–0,30 €. Detaillierte Schätzung für Ihren Case im KI-Kosten-Rechner.

    Einsatz im Mittelstand — was lohnt sich?

    Drei Use-Case-Kategorien dominieren:

    • Wissens-Zugriff (RAG): Mitarbeiter fragen interne Dokumente per Chat ab. Hoher Hebel bei wissensintensiven Branchen (Beratung, Recht, Engineering).
    • Generierung von Standardtexten: Angebote, Antwort-Entwürfe, interne Memos. Hoher Hebel bei vielen ähnlich strukturierten Texten.
    • Klassifikation & Extraktion: Tickets sortieren, Rechnungen parsen, E-Mails routen. Hoher Hebel bei hohen Volumina strukturarmer Eingaben.

    Was sich nicht lohnt: kreatives Schreiben für Marketing-Content (LLMs erzeugen austauschbare Texte ohne klare Markenstimme), juristisch verbindliche Dokumente (Halluzinations-Risiko), Sicherheitsentscheidungen ohne Mensch-im-Loop.

    Stolpersteine

    Drei klassische Fehler:

    1. „Wir trainieren unser eigenes LLM“: Außer für hochspezialisierte Domänen ist das Verschwendung. Foundation-Model + RAG ist 90 % günstiger und meistens besser.
    2. Modell-Lock-in: Wer sich auf einen Anbieter festnagelt, leidet bei Preiserhöhungen oder Performance-Regressionen. Architektur abstrakt halten.
    3. Output ungeprüft live: LLM-Antworten direkt zum Kunden ohne Review-Mechanismus → früher oder später peinliche Halluzination. Bei kundenseitigen Use Cases immer mit Eskalations-Pfad zu Mensch.

    Mehr in unseren Pillar-Inhalten: Strategie-Leitfaden, DSGVO-Konformität, ROI-Berechnung.

    Häufig gestellte Fragen

    Welches LLM ist das beste für den Mittelstand?
    Es gibt kein „bestes“ LLM — die richtige Wahl hängt vom Use Case ab. Faustregel 2026: Claude 3.5 Sonnet für komplexe Schlussfolgerungen und längere Dokumente, GPT-4o für Funktion-Calling und Multimodalität, Mistral Large als europäische Option mit guter Preis-Leistung. Für einfache Klassifikations-Aufgaben reichen oft kleinere und günstigere Modelle (Mistral Small, GPT-4o-mini, Claude Haiku).
    Brauche ich ein eigenes LLM?
    In 95 % aller Mittelstands-Cases nein. Eigenes Training (Fine-Tuning) lohnt sich nur bei sehr spezifischen Domänen (z. B. juristische Texte, hochspezialisierte Branchensprache) und ab signifikanten Volumina. Für die allermeisten Use Cases reicht ein gutes Foundation-Model in Kombination mit RAG (Retrieval-Augmented Generation) auf Ihren Dokumenten.
    Sind LLMs DSGVO-konform?
    Das LLM selbst ist neutral — die DSGVO-Konformität ergibt sich aus dem Hosting und der Vertragsgestaltung. Anthropic, OpenAI und Microsoft bieten EU-Endpunkte mit Auftragsverarbeitungsverträgen. Mistral hat seinen Hauptsitz in Frankreich. Mit der richtigen Konfiguration (kein Training auf Ihren Daten, EU-Hosting, AVV) sind alle großen LLMs DSGVO-konform einsetzbar.
    Was kostet ein LLM-Aufruf?
    Bei modernen Top-Modellen liegen die Token-Preise (Stand 2026) typischerweise bei 3–15 € pro 1 Million Input-Token und 15–75 € pro 1 Million Output-Token. Eine typische Konversation kostet 0,01–0,05 €. Pro aktivem Power-User sehen wir Inferenz-Kosten von 5–15 €/Monat.
    Was ist der Unterschied zwischen LLM und KI?
    KI ist der Oberbegriff. LLMs sind eine spezielle Form von KI, die auf Sprache spezialisiert ist. Andere KI-Formen sind Bildverarbeitung (Computer Vision), Spracherkennung (Speech-to-Text) oder klassische Vorhersage-Modelle. Die meisten heutigen Generativen-KI-Anwendungen im Unternehmen nutzen LLMs als Kern.

    Kostenfreie KI-Potenzialanalyse

    30 Minuten Strategiegespräch mit einem KBD-Berater. Konkret, ehrlich, ohne Verkaufsdruck — wir sagen Ihnen offen, ob KI für Ihren Use Case lohnt.

    • Analyse Ihrer 3 wichtigsten Prozesse
    • Konkrete Roadmap mit Aufwandsschätzung
    • Indikative ROI-Rechnung für Ihren Case

    Ergänzend lesenswert