Temperature (Sampling)
Ein Parameter, der die "Kreativität" von LLM-Outputs steuert: Niedrige Werte (0-0.3) erzeugen fokussierte, deterministische Antworten; hohe Werte (0.7-1.0) bringen Variation und Überraschungen.
Für Marketing-Content: T=0.2 für konsistente, faktenbasierte Texte (Produktinfos). T=0.7 für kreative Ad-Copy und Brainstorming. T=0.9+ für wilde Ideenfindung.
Erklärung
Temperature skaliert die Logits vor der Softmax-Funktion: T=0 wählt immer das wahrscheinlichste Token (deterministisch), T>1 "plättet" die Verteilung und macht unwahrscheinliche Tokens wahrscheinlicher. T=0.7 ist oft der Sweet Spot für kreative Aufgaben.
Relevanz für Marketing
Für Marketing-Content: T=0.2 für konsistente, faktenbasierte Texte (Produktinfos). T=0.7 für kreative Ad-Copy und Brainstorming. T=0.9+ für wilde Ideenfindung. Falsche Temperature verdirbt Results.
Beispiel
Ein Team testet Headlines bei verschiedenen Temperaturen: T=0.2 gibt immer dieselbe solide Headline. T=0.7 generiert 5 verschiedene kreative Optionen. T=1.0 produziert auch unkonventionelle, manchmal brillante, manchmal absurde Ideen.
Häufige Fallstricke
Zu hohe Temperature = inkohärenter Output. Zu niedrig = langweilig und repetitiv. Optimal variiert je nach Aufgabe. Interagiert mit anderen Parametern (top_p, top_k).
Entstehung & Geschichte
Temperature (Sampling) ist ein etablierter Begriff im Bereich Künstliche Intelligenz. Das Konzept hat sich mit der zunehmenden Bedeutung von KI und datengetriebenen Methoden weiterentwickelt.