Function Calling (LLM)
Function Calling ermöglicht LLMs, strukturierte Funktionsaufrufe zu generieren – die Brücke zwischen natürlicher Sprache und APIs, Datenbanken oder externen Tools.
Function Calling lässt LLMs echte APIs aufrufen – die Schlüsseltechnologie, die Chatbots von Textgeneratoren zu handlungsfähigen Agenten macht.
Erklärung
Das LLM entscheidet basierend auf dem Gespräch, welche Funktion aufgerufen werden soll, und gibt strukturierte Parameter zurück (JSON). Die Ausführung erfolgt extern, das Ergebnis fließt zurück in den Dialog. OpenAI, Anthropic und Google bieten native Function Calling APIs.
Relevanz für Marketing
Ermöglicht Chatbots, echte Aktionen auszuführen: Bestellungen aufgeben, Termine buchen, Daten abfragen – nicht nur Texte generieren.
Beispiel
"Zeig mir den Umsatz von letztem Monat" → LLM generiert: get_revenue(period="last_month") → API liefert Daten → LLM formuliert die Antwort.
Häufige Fallstricke
Falsche Parameter-Extraktion. Unbeabsichtigte destruktive Aktionen ohne Confirmation. Halluzinierte Tool-Aufrufe die nicht existieren.
Entstehung & Geschichte
OpenAI führte Function Calling im Juni 2023 (GPT-3.5/4) ein. Anthropic folgte mit Tool Use (2024). Google Gemini ergänzte Function Calling. 2025 ist Parallel Function Calling und Structured Output Standard für alle großen LLMs.
Abgrenzung & Vergleiche
Function Calling (LLM) vs. Agentic AI
Function Calling ist ein einzelner Tool-Aufruf; Agentic AI orchestriert viele Function Calls autonom in Multi-Step-Workflows.
Function Calling (LLM) vs. Structured Output
Structured Output garantiert JSON-Format; Function Calling nutzt strukturierte Ausgabe spezifisch für Tool-Aufrufe mit Parametern.