Tree of Thoughts (ToT)
Prompting-Strategie, bei der das LLM mehrere Reasoning-Pfade parallel verfolgt, bewertet und den besten auswählt – wie ein Entscheidungsbaum für Gedankenketten.
Tree of Thoughts (ToT) lässt LLMs mehrere Lösungspfade parallel verfolgen und den besten auswählen – verbessert komplexes Reasoning bei Planung, Mathematik und Logik erheblich.
Erklärung
Erweitert Chain-of-Thought um Branching und Backtracking. Das Modell generiert mehrere Teilantworten, bewertet sie und verfolgt die vielversprechendsten weiter.
Relevanz für Marketing
Tree of Thoughts verbessert komplexes Reasoning signifikant – besonders bei Planungs-, Mathematik- und Logik-Aufgaben.
Häufige Fallstricke
Hohe Token-Kosten durch Branching. Nicht für einfache Aufgaben nötig. Evaluation der Branches kann fehlerhaft sein.
Entstehung & Geschichte
Eingeführt Mai 2023 von Yao et al. (Princeton/Google DeepMind) in "Tree of Thoughts: Deliberate Problem Solving with Large Language Models". Baute auf Chain-of-Thought (2022) auf.
Abgrenzung & Vergleiche
Tree of Thoughts (ToT) vs. Chain-of-Thought
CoT verfolgt einen linearen Reasoning-Pfad; ToT verzweigt in mehrere Pfade und wählt den besten aus.
Tree of Thoughts (ToT) vs. Self-Consistency
Self-Consistency sampelt mehrere finale Antworten und nimmt die Mehrheit; ToT bewertet und beschneidet Pfade während des Reasonings.