Mode Collapse
Mode Collapse tritt auf, wenn ein generatives Modell nur eine begrenzte Vielfalt an Outputs produziert und große Teile der Datenverteilung ignoriert.
Mode Collapse = generative Modelle produzieren nur wenige Varianten statt der vollen Vielfalt – das klassische GAN-Problem, das Diffusionsmodelle weitgehend gelöst haben.
Erklärung
Bei GANs findet der Generator eine "sichere" Strategie, die den Diskriminator täuscht, und produziert immer ähnliche Bilder. Diagnostik: FID/IS-Metriken, visuelle Inspektion der Samples, Nearest-Neighbor-Analyse gegen Trainingsdaten.
Relevanz für Marketing
Mode Collapse ist das Hauptproblem bei GAN-basierter Content-Generierung – monotone Outputs sind für Marketing unbrauchbar.
Beispiel
Ein GAN für Produktbilder generiert immer denselben Blickwinkel und Hintergrund, obwohl die Trainingsdaten vielfältig waren.
Häufige Fallstricke
Mode Collapse erst spät im Training bemerken. Nur FID-Score prüfen (kann gut sein trotz Collapse). Diffusionsmodelle haben dieses Problem deutlich seltener.
Entstehung & Geschichte
Mode Collapse wurde früh als GAN-Problem erkannt (Goodfellow, 2014). Wasserstein GAN (Arjovsky, 2017) und Spectral Normalization (Miyato, 2018) reduzierten das Problem. Diffusionsmodelle (2020+) lösten es weitgehend durch Likelihood-basiertes Training.
Abgrenzung & Vergleiche
Mode Collapse vs. Overfitting
Overfitting kopiert Trainingsdaten exakt; Mode Collapse ignoriert Teile der Verteilung und generiert nur bestimmte Muster.
Mode Collapse vs. Posterior Collapse (VAE)
Mode Collapse bei GANs: Generator ignoriert Modi. Posterior Collapse bei VAEs: Encoder ignoriert Inputs und nutzt nur den Prior.