ReAct Prompting
Ein Prompting-Paradigma, das Reasoning (Denken) und Acting (Handeln) in einer Schleife verbindet – das LLM denkt laut nach, führt Aktionen aus und reflektiert die Ergebnisse.
ReAct verbindet Denken und Handeln: Think → Act → Observe → Repeat. Das Basis-Pattern für robuste KI-Agenten.
Erklärung
ReAct-Agenten folgen einem Thought-Action-Observation-Loop: Thought analysiert die Situation, Action führt ein Tool aus, Observation verarbeitet das Ergebnis. Wiederholen bis Ziel erreicht. Deutlich robuster als reine Chain-of-Thought, da Fehler in Zwischenschritten korrigiert werden können.
Relevanz für Marketing
Standard-Pattern für Agentic AI. LangChain, AutoGen und andere Frameworks implementieren ReAct als Basis-Architektur für Tool-Using Agents.
Beispiel
Thought: "Ich brauche aktuelle Wetterdaten." → Action: weather_tool(Berlin) → Observation: "15°C, sonnig" → Thought: "Jetzt kann ich die Empfehlung formulieren." → Final Answer.
Häufige Fallstricke
Token-intensiv durch ausführliches Reasoning. Kann in Loops stecken bleiben. Erfordert gutes Prompt-Engineering für konsistentes Format.
Entstehung & Geschichte
ReAct wurde 2022 von Yao et al. (Princeton, Google) im Paper "ReAct: Synergizing Reasoning and Acting in Language Models" vorgestellt. Es kombinierte erstmals CoT-Reasoning mit Tool-Use.
Abgrenzung & Vergleiche
ReAct Prompting vs. Chain-of-Thought
Chain-of-Thought denkt nur nach; ReAct führt zusätzlich Aktionen aus und verarbeitet deren Ergebnisse.
ReAct Prompting vs. Plan-and-Execute
Plan-and-Execute plant alles vorab; ReAct plant und korrigiert iterativ basierend auf Beobachtungen.