Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Self-Play

    Auch bekannt als:
    Selbstspiel
    Self-Play Training
    Eigenspiel
    Aktualisiert: 10.2.2026

    Self-Play ist eine RL-Trainingsmethode, bei der ein Agent gegen Kopien seiner selbst spielt, um durch Wettbewerb stetig besser zu werden.

    Kurz erklärt

    Self-Play trainiert AI gegen sich selbst – die Methode hinter AlphaGo/AlphaZero, die ohne menschliche Daten übermenschliche Leistung erreicht.

    Erklärung

    Der Agent generiert seine eigenen Trainings-Gegner, die mit ihm mitwachsen. Dies erzeugt einen natürlichen Curriculum von einfach zu schwer und kann zu übermenschlicher Leistung führen.

    Relevanz für Marketing

    Self-Play ermöglichte AlphaGo/AlphaZero und wird zunehmend für LLM-Training genutzt (Debate, Constitutional AI).

    Häufige Fallstricke

    Kann in lokalen Optima steckenbleiben (Rock-Paper-Scissors-Zyklen). Nicht-transitive Strategien. Hoher Compute-Bedarf.

    Entstehung & Geschichte

    Tesauro (1995, TD-Gammon) war ein früher Erfolg. AlphaGo (DeepMind, 2016) und AlphaZero (2017) demonstrierten Self-Play in Go, Schach und Shogi. OpenAI Five (2019) für Dota 2.

    Abgrenzung & Vergleiche

    Self-Play vs. Supervised Learning from Games

    Supervised Learning braucht menschliche Spielaufzeichnungen; Self-Play generiert unbegrenzt eigene Trainingsdaten und übersteigt menschliches Niveau.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!