Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    AdamW

    Auch bekannt als:
    AdamW Optimizer
    Decoupled Weight Decay
    Adam mit echtem Weight Decay
    Aktualisiert: 10.2.2026

    Korrigierte Variante des Adam-Optimizers, die Weight Decay vom Gradientenupdate entkoppelt – der De-facto-Standard für LLM- und Transformer-Training.

    Kurz erklärt

    AdamW korrigiert Adams falsche Weight-Decay-Implementierung durch Entkopplung vom Gradient – der Standard-Optimizer für alle modernen LLMs und Transformer.

    Erklärung

    In Adam wird Weight Decay fälschlicherweise als L2-Regularisierung auf den Gradienten angewendet. AdamW trennt Weight Decay und wendet ihn direkt auf die Gewichte an, was bei adaptiven Lernraten korrekteres Verhalten ergibt.

    Relevanz für Marketing

    AdamW ist der Standard-Optimizer für GPT, LLaMA, BERT und praktisch alle modernen LLMs. Kein LLM-Training ohne AdamW.

    Häufige Fallstricke

    Weight Decay Wert muss getuned werden (typisch: 0.01–0.1). Verwechslung mit Adam + L2 führt zu suboptimalem Training.

    Entstehung & Geschichte

    Loshchilov & Hutter veröffentlichten 2017/2019 "Decoupled Weight Decay Regularization" und zeigten, dass Adams L2-Regularisierung bei adaptiven Raten falsch ist. AdamW wurde sofort zum Standard für BERT (2018), GPT-2 (2019) und alle folgenden LLMs.

    Abgrenzung & Vergleiche

    AdamW vs. Adam

    Adam wendet Weight Decay als L2 auf Gradienten an (mathematisch falsch bei adaptiven Raten). AdamW entkoppelt Weight Decay – korrekt und besser generalisierend.

    AdamW vs. SGD mit Momentum

    Bei SGD sind L2 und Weight Decay identisch. Bei Adam/AdamW nicht – daher die Korrektur. AdamW konvergiert schneller, SGD generalisiert manchmal besser.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!