Focal Loss
Modifizierte Cross-Entropy-Loss, die schwer klassifizierbare Beispiele stärker gewichtet und leichte Beispiele herunterskaliert.
Focal Loss gewichtet schwere Beispiele stärker und einfache herunter – löst Class Imbalance ohne Resampling, entwickelt für RetinaNet Object Detection.
Erklärung
Eingeführt für Object Detection, löst Focal Loss das Problem dominanter Hintergrund-Klassen durch den Fokussierungsparameter γ.
Relevanz für Marketing
Focal Loss ist die Standard-Lösung für extreme Class Imbalance in Detection und Klassifikation ohne Resampling.
Häufige Fallstricke
γ-Parameter muss getuned werden. Nicht immer besser als gewichtete Cross-Entropy. Kann Training instabil machen bei falschen Parametern.
Entstehung & Geschichte
Eingeführt 2017 von Lin et al. (Facebook AI Research) im RetinaNet-Paper. Focal Loss ermöglichte erstmals One-Stage-Detektoren, die mit Two-Stage (Faster R-CNN) konkurrieren konnten.
Abgrenzung & Vergleiche
Focal Loss vs. Weighted Cross-Entropy
Weighted CE gewichtet Klassen global gleich; Focal Loss gewichtet einzelne Beispiele nach Schwierigkeit – adaptiver und feingranularer.
Focal Loss vs. SMOTE
SMOTE erzeugt neue Datenpunkte; Focal Loss ändert die Loss-Funktion ohne Daten zu verändern – kann kombiniert werden.