Glossar · Architektur

    Function Calling — wie LLMs Tools nutzen

    Function Calling ist der Mechanismus, mit dem ein LLM strukturiert Funktionen aufrufen kann — sei es eine Datenbank-Abfrage, ein API-Call oder ein eigenes Skript. Es ist die technische Grundlage jedes KI-Agenten und macht aus einem Chatbot einen aktiven Akteur.

    30 Tage
    zum ersten Pilot
    Ø 40 %
    weniger manuelle Arbeit
    100 %
    Hosting in Deutschland
    DSGVO + EU AI Act
    konform implementiert

    Was ist Function Calling?

    Vor Function Calling hatten LLMs ein Problem: sie konnten Antworten formulieren, aber keine echten Aktionen ausführen. Wenn ein Nutzer fragte „wie viel haben wir letzten Monat umgesetzt?“, konnte das LLM nicht in Ihre Datenbank schauen — bestenfalls trainierte Annahmen wiedergeben (oder halluzinieren).

    Function Calling löst genau das. Sie definieren dem LLM eine Liste von Funktionen mit Schema (z. B. „getRevenue(month, year) → number“). Das LLM entscheidet bei jeder Anfrage selbst, ob eine Funktion aufgerufen werden soll, mit welchen Parametern, und integriert das Ergebnis in seine Antwort. Damit wird das LLM zur Brücke zwischen natürlicher Sprache und Ihren Systemen.

    Wie funktioniert Function Calling konkret?

    Vier Schritte:

    1. Schema-Definition: Sie beschreiben dem LLM in JSON-Schema-Form Ihre verfügbaren Funktionen — Name, Beschreibung, Parameter mit Typen.
    2. Erste LLM-Antwort: bei einer Nutzer-Frage entscheidet das LLM: „kann ich direkt antworten oder muss ich eine Funktion aufrufen?“. Wenn ja, gibt es einen Function-Call-Token mit dem gewählten Funktionsnamen und den Parametern aus.
    3. Tool-Ausführung: Ihre Anwendung führt die Funktion aus (z. B. SQL-Query), holt das Ergebnis und gibt es zurück an das LLM.
    4. Finale LLM-Antwort: das LLM nimmt das Ergebnis, formuliert die natürlichsprachige Antwort und liefert sie aus.

    Bei komplexeren Aufgaben kann das LLM mehrere Funktionen nacheinander aufrufen — daraus entsteht ein Agent.

    Anbieter-Unterschiede

    Stand 2026 unterscheiden sich die Anbieter in Details:

    • OpenAI Function Calling: erfunden, am ausgereiftesten. JSON-Schema-basiert, sehr zuverlässig. Strict-Mode garantiert Schema-Konformität.
    • Anthropic Tool Use: ähnliche Funktionalität, etwas anderes Format (XML-orientiert). Sehr stark bei längeren, mehrstufigen Tool-Workflows.
    • Mistral Function Calling: kompatibel mit OpenAI-Format, etwas weniger zuverlässig bei komplexen Schemas.
    • Google Gemini Function Calling: funktional vergleichbar, eigene API-Konvention.

    Best Practices

    Für produktive Function-Calling-Implementierungen:

    • Klare Funktionsbeschreibungen: jeder Parameter mit konkretem Beispiel und erwartetem Format.
    • Wenige Funktionen pro Scope: mehr als 8–10 Funktionen führen zu Verwirrung. Lieber per Kontext filtern, was relevant ist.
    • Strict-Mode aktivieren: verhindert ungültige Parameter-Werte, verfügbar bei OpenAI seit Mitte 2024.
    • Idempotenz: Funktionen sollten mehrfach mit denselben Parametern dasselbe Ergebnis liefern — das LLM ruft sie manchmal versehentlich doppelt auf.
    • Sichere Ausführung: der LLM-Output ist nicht vertrauenswürdig — Validierung vor Ausführung, Berechtigungs-Check, Audit-Logging.

    Mehr in unseren Pillar-Inhalten: KI-Agenten im Unternehmen, Case Study mit Function Calling.

    Häufig gestellte Fragen

    Welche LLMs unterstützen Function Calling?
    Alle modernen Top-Modelle: OpenAI GPT-4o (Erfinder des Standards), Anthropic Claude 3.5 (Tool Use), Google Gemini, Mistral Large. Open-Weight-Modelle wie Llama 3 unterstützen es ebenfalls über Frameworks. Für produktive Use-Cases im Mittelstand sind GPT-4o und Claude 3.5 die zuverlässigsten — Mistral und Gemini holen 2026 schnell auf.
    Wie zuverlässig ist Function Calling?
    Sehr zuverlässig — moderne Modelle erreichen 95–99 % korrekte Function-Calls bei klar definierten Schemas. Die häufigsten Fehlerquellen: schlecht beschriebene Funktionen (LLM rät, was sie tut), zu viele Funktionen gleichzeitig im Scope (LLM verzettelt sich), unklare Parameter-Beschreibungen (LLM erfindet Werte). Schutz: gutes Schema-Design.
    Brauche ich ein Framework wie LangChain für Function Calling?
    Nein. Native Function Calling von OpenAI und Anthropic funktioniert direkt über die API. Frameworks lohnen sich erst, wenn Sie komplexe Multi-Step-Workflows (Agenten) bauen — dann LangGraph oder LlamaIndex Workflows. Für einfache Tool-Calls reicht der native Mechanismus.
    Was ist der Unterschied zu strukturiertem JSON-Output?
    Function Calling ist ein Spezialfall von strukturiertem Output. Strukturierter JSON-Output erzwingt nur ein Format, ohne dass das LLM unterscheidet, „welche“ Funktion. Function Calling lässt das LLM aus mehreren Funktionen auswählen UND strukturierten Input dafür generieren. Für reine Datenextraktion (immer dasselbe Format): JSON-Mode. Für Tool-Auswahl + Input: Function Calling.

    Kostenfreie KI-Potenzialanalyse

    30 Minuten Strategiegespräch mit einem KBD-Berater. Konkret, ehrlich, ohne Verkaufsdruck — wir sagen Ihnen offen, ob KI für Ihren Use Case lohnt.

    • Analyse Ihrer 3 wichtigsten Prozesse
    • Konkrete Roadmap mit Aufwandsschätzung
    • Indikative ROI-Rechnung für Ihren Case

    Ergänzend lesenswert