Mixup
Data-Augmentation-Technik, die neue Trainingsbeispiele durch lineare Interpolation zwischen zwei existierenden Beispielen erzeugt.
Mixup mischt zwei Trainingsbeispiele (Inputs und Labels) linear – einfache Augmentation, die Generalisierung verbessert und Overfitting sowie Overconfidence reduziert.
Erklärung
Mixup kombiniert sowohl Inputs als auch Labels: x_new = λ·x1 + (1-λ)·x2, y_new = λ·y1 + (1-λ)·y2, wobei λ aus einer Beta-Verteilung gezogen wird.
Relevanz für Marketing
Mixup verbessert Generalisierung, Kalibrierung und Robustheit gegen adversariale Beispiele mit minimaler Implementierungskomplexität.
Häufige Fallstricke
Zu hohe Mixup-Stärke verwischt Klassen-Grenzen. Nicht für alle Datentypen geeignet (z.B. Text).
Entstehung & Geschichte
Eingeführt 2017 von Zhang, Cisse, Dauphin & Lopez-Paz (Facebook AI Research). CutMix (2019) und Manifold Mixup erweiterten das Konzept auf räumliche und latente Domains.
Abgrenzung & Vergleiche
Mixup vs. CutMix
Mixup blendet ganze Bilder übereinander; CutMix schneidet einen Patch aus und ersetzt ihn mit einem Patch aus einem anderen Bild – erhält lokale Strukturen besser.
Mixup vs. Label Smoothing
Mixup erzeugt neue Inputs und Labels durch Interpolation; Label Smoothing weicht nur die Labels auf, ohne Inputs zu verändern.