Self-Play
Self-Play ist eine RL-Trainingsmethode, bei der ein Agent gegen Kopien seiner selbst spielt, um durch Wettbewerb stetig besser zu werden.
Self-Play trainiert AI gegen sich selbst – die Methode hinter AlphaGo/AlphaZero, die ohne menschliche Daten übermenschliche Leistung erreicht.
Erklärung
Der Agent generiert seine eigenen Trainings-Gegner, die mit ihm mitwachsen. Dies erzeugt einen natürlichen Curriculum von einfach zu schwer und kann zu übermenschlicher Leistung führen.
Relevanz für Marketing
Self-Play ermöglichte AlphaGo/AlphaZero und wird zunehmend für LLM-Training genutzt (Debate, Constitutional AI).
Häufige Fallstricke
Kann in lokalen Optima steckenbleiben (Rock-Paper-Scissors-Zyklen). Nicht-transitive Strategien. Hoher Compute-Bedarf.
Entstehung & Geschichte
Tesauro (1995, TD-Gammon) war ein früher Erfolg. AlphaGo (DeepMind, 2016) und AlphaZero (2017) demonstrierten Self-Play in Go, Schach und Shogi. OpenAI Five (2019) für Dota 2.
Abgrenzung & Vergleiche
Self-Play vs. Supervised Learning from Games
Supervised Learning braucht menschliche Spielaufzeichnungen; Self-Play generiert unbegrenzt eigene Trainingsdaten und übersteigt menschliches Niveau.