AdamW
Korrigierte Variante des Adam-Optimizers, die Weight Decay vom Gradientenupdate entkoppelt – der De-facto-Standard für LLM- und Transformer-Training.
AdamW korrigiert Adams falsche Weight-Decay-Implementierung durch Entkopplung vom Gradient – der Standard-Optimizer für alle modernen LLMs und Transformer.
Erklärung
In Adam wird Weight Decay fälschlicherweise als L2-Regularisierung auf den Gradienten angewendet. AdamW trennt Weight Decay und wendet ihn direkt auf die Gewichte an, was bei adaptiven Lernraten korrekteres Verhalten ergibt.
Relevanz für Marketing
AdamW ist der Standard-Optimizer für GPT, LLaMA, BERT und praktisch alle modernen LLMs. Kein LLM-Training ohne AdamW.
Häufige Fallstricke
Weight Decay Wert muss getuned werden (typisch: 0.01–0.1). Verwechslung mit Adam + L2 führt zu suboptimalem Training.
Entstehung & Geschichte
Loshchilov & Hutter veröffentlichten 2017/2019 "Decoupled Weight Decay Regularization" und zeigten, dass Adams L2-Regularisierung bei adaptiven Raten falsch ist. AdamW wurde sofort zum Standard für BERT (2018), GPT-2 (2019) und alle folgenden LLMs.
Abgrenzung & Vergleiche
AdamW vs. Adam
Adam wendet Weight Decay als L2 auf Gradienten an (mathematisch falsch bei adaptiven Raten). AdamW entkoppelt Weight Decay – korrekt und besser generalisierend.
AdamW vs. SGD mit Momentum
Bei SGD sind L2 und Weight Decay identisch. Bei Adam/AdamW nicht – daher die Korrektur. AdamW konvergiert schneller, SGD generalisiert manchmal besser.