Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Temperature (Sampling)

    Auch bekannt als:
    Temperatur-Parameter
    Sampling-Temperatur
    Kreativitäts-Parameter
    Softmax Temperature
    Aktualisiert: 12.2.2026

    Ein Parameter, der die "Kreativität" von LLM-Outputs steuert: Niedrige Werte (0-0.3) erzeugen fokussierte, deterministische Antworten; hohe Werte (0.7-1.0) bringen Variation und Überraschungen.

    Kurz erklärt

    Für Marketing-Content: T=0.2 für konsistente, faktenbasierte Texte (Produktinfos). T=0.7 für kreative Ad-Copy und Brainstorming. T=0.9+ für wilde Ideenfindung.

    Erklärung

    Temperature skaliert die Logits vor der Softmax-Funktion: T=0 wählt immer das wahrscheinlichste Token (deterministisch), T>1 "plättet" die Verteilung und macht unwahrscheinliche Tokens wahrscheinlicher. T=0.7 ist oft der Sweet Spot für kreative Aufgaben.

    Relevanz für Marketing

    Für Marketing-Content: T=0.2 für konsistente, faktenbasierte Texte (Produktinfos). T=0.7 für kreative Ad-Copy und Brainstorming. T=0.9+ für wilde Ideenfindung. Falsche Temperature verdirbt Results.

    Beispiel

    Ein Team testet Headlines bei verschiedenen Temperaturen: T=0.2 gibt immer dieselbe solide Headline. T=0.7 generiert 5 verschiedene kreative Optionen. T=1.0 produziert auch unkonventionelle, manchmal brillante, manchmal absurde Ideen.

    Häufige Fallstricke

    Zu hohe Temperature = inkohärenter Output. Zu niedrig = langweilig und repetitiv. Optimal variiert je nach Aufgabe. Interagiert mit anderen Parametern (top_p, top_k).

    Entstehung & Geschichte

    Temperature (Sampling) ist ein etablierter Begriff im Bereich Künstliche Intelligenz. Das Konzept hat sich mit der zunehmenden Bedeutung von KI und datengetriebenen Methoden weiterentwickelt.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!