Reflection Agent
Ein Agenten-Pattern, bei dem das LLM seine eigenen Outputs kritisch bewertet und iterativ verbessert – wie ein internes Code-Review.
Reflection Agents verbessern KI-Outputs durch Selbstkritik und Iteration – wie ein interner Reviewer, der den ersten Entwurf optimiert.
Erklärung
Reflection-Agenten generieren zunächst einen Draft, bewerten ihn dann anhand definierter Kriterien, identifizieren Schwächen und produzieren eine verbesserte Version. Dieses Self-Refinement kann mehrfach iterieren.
Relevanz für Marketing
Verbessert Output-Qualität signifikant: Code-Review-Agents, Content-Quality-Checks, Fact-Checking-Loops und strategische Analyse mit Gegenperspektiven.
Häufige Fallstricke
Hohe Token-Kosten durch mehrfache Iterationen. Kann zu Over-Engineering führen. Manche Modelle bewerten eigene Outputs zu unkritisch.
Entstehung & Geschichte
Reflexion (Shinn et al., 2023) formalisierte Self-Reflection für LLM-Agenten. Das Konzept baut auf Self-Consistency (Wang et al., 2023) und Constitutional AI (Anthropic) auf.
Abgrenzung & Vergleiche
Reflection Agent vs. Self-Consistency
Self-Consistency sampelt mehrere Antworten und wählt die häufigste. Reflection kritisiert und verbessert eine Antwort iterativ.