Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Reflection Agent

    Auch bekannt als:
    Reflection Agent
    Selbstreflexion
    Self-Reflection AI
    Reflexion
    Aktualisiert: 11.2.2026

    Ein Agenten-Pattern, bei dem das LLM seine eigenen Outputs kritisch bewertet und iterativ verbessert – wie ein internes Code-Review.

    Kurz erklärt

    Reflection Agents verbessern KI-Outputs durch Selbstkritik und Iteration – wie ein interner Reviewer, der den ersten Entwurf optimiert.

    Erklärung

    Reflection-Agenten generieren zunächst einen Draft, bewerten ihn dann anhand definierter Kriterien, identifizieren Schwächen und produzieren eine verbesserte Version. Dieses Self-Refinement kann mehrfach iterieren.

    Relevanz für Marketing

    Verbessert Output-Qualität signifikant: Code-Review-Agents, Content-Quality-Checks, Fact-Checking-Loops und strategische Analyse mit Gegenperspektiven.

    Häufige Fallstricke

    Hohe Token-Kosten durch mehrfache Iterationen. Kann zu Over-Engineering führen. Manche Modelle bewerten eigene Outputs zu unkritisch.

    Entstehung & Geschichte

    Reflexion (Shinn et al., 2023) formalisierte Self-Reflection für LLM-Agenten. Das Konzept baut auf Self-Consistency (Wang et al., 2023) und Constitutional AI (Anthropic) auf.

    Abgrenzung & Vergleiche

    Reflection Agent vs. Self-Consistency

    Self-Consistency sampelt mehrere Antworten und wählt die häufigste. Reflection kritisiert und verbessert eine Antwort iterativ.

    Weiterführende Ressourcen

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!