Definition
Ein Large Language Model ist ein maschinelles Lernmodell mit typischerweise mehreren hundert Milliarden Parametern, das auf einem Korpus aus typischerweise 1–15 Billionen Tokens (Wort-Einheiten) trainiert wurde. Das Ergebnis ist ein System, das natürliche Sprache statistisch sehr präzise modelliert — es „weiß“, welches Wort mit welcher Wahrscheinlichkeit auf welche Vorgängerworte folgt.
Aus dieser Statistik entstehen emergent erstaunliche Fähigkeiten: Übersetzung, Zusammenfassung, Code-Generierung, logisches Schlussfolgern, Schreiben in beliebigen Stilen. Wichtig zu verstehen: ein LLM versteht nicht im menschlichen Sinne, es modelliert Sprache statistisch — daraus ergeben sich sowohl die Stärken als auch die berüchtigten Halluzinationen.
Funktionsweise — vereinfacht
Ein LLM zerlegt Eingabetext in Tokens (typischerweise 0,5–4 Zeichen pro Token), wandelt diese in numerische Vektoren (Embeddings) und propagiert sie durch dutzende bis hunderte Transformer-Schichten. Am Ende des Forward-Passes berechnet das Modell für jedes mögliche nächste Token eine Wahrscheinlichkeit. Es wählt eines davon (meist mit etwas Zufall via „Temperature“), hängt es an die Sequenz und wiederholt — Token für Token.
Die Magie steckt in den Parametern (Gewichten), die im aufwendigen Pretraining festgelegt wurden. Modernes Training braucht tausende GPU-Karten über mehrere Monate, was die Foundation-Models effektiv auf eine Handvoll Anbieter konzentriert.
Anbieter im Vergleich (Stand 2026)
Was kostet ein LLM wirklich?
Die Kostenrechnung läuft pro Token. Beispiel Claude 3.5 Sonnet (Stand 2026): 3 € pro 1 Million Input-Token, 15 € pro 1 Million Output-Token. Eine typische Wissens-Anfrage (System-Prompt + Kontext + Antwort = ca. 4.500 Tokens) kostet ca. 0,02 €. Bei 100 Anfragen pro Tag und Nutzer ergibt das knapp 60 €/Monat.
Wir sehen in der Praxis im Mittelstand 5–15 €/Monat pro aktivem Power-User, weil die meisten Mitarbeiter weniger als 100 Anfragen pro Tag stellen. Für reine Chatbot-Use-Cases (z. B. Kundenservice ohne Login) rechnen wir pro Konversation: 0,15–0,30 €. Detaillierte Schätzung für Ihren Case im KI-Kosten-Rechner.
Einsatz im Mittelstand — was lohnt sich?
Drei Use-Case-Kategorien dominieren:
- Wissens-Zugriff (RAG): Mitarbeiter fragen interne Dokumente per Chat ab. Hoher Hebel bei wissensintensiven Branchen (Beratung, Recht, Engineering).
- Generierung von Standardtexten: Angebote, Antwort-Entwürfe, interne Memos. Hoher Hebel bei vielen ähnlich strukturierten Texten.
- Klassifikation & Extraktion: Tickets sortieren, Rechnungen parsen, E-Mails routen. Hoher Hebel bei hohen Volumina strukturarmer Eingaben.
Was sich nicht lohnt: kreatives Schreiben für Marketing-Content (LLMs erzeugen austauschbare Texte ohne klare Markenstimme), juristisch verbindliche Dokumente (Halluzinations-Risiko), Sicherheitsentscheidungen ohne Mensch-im-Loop.
Stolpersteine
Drei klassische Fehler:
- „Wir trainieren unser eigenes LLM“: Außer für hochspezialisierte Domänen ist das Verschwendung. Foundation-Model + RAG ist 90 % günstiger und meistens besser.
- Modell-Lock-in: Wer sich auf einen Anbieter festnagelt, leidet bei Preiserhöhungen oder Performance-Regressionen. Architektur abstrakt halten.
- Output ungeprüft live: LLM-Antworten direkt zum Kunden ohne Review-Mechanismus → früher oder später peinliche Halluzination. Bei kundenseitigen Use Cases immer mit Eskalations-Pfad zu Mensch.
Mehr in unseren Pillar-Inhalten: Strategie-Leitfaden, DSGVO-Konformität, ROI-Berechnung.
