Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Mixup

    Auch bekannt als:
    Mixup
    Mixup-Training
    Input-Mixing
    Aktualisiert: 10.2.2026

    Data-Augmentation-Technik, die neue Trainingsbeispiele durch lineare Interpolation zwischen zwei existierenden Beispielen erzeugt.

    Kurz erklärt

    Mixup mischt zwei Trainingsbeispiele (Inputs und Labels) linear – einfache Augmentation, die Generalisierung verbessert und Overfitting sowie Overconfidence reduziert.

    Erklärung

    Mixup kombiniert sowohl Inputs als auch Labels: x_new = λ·x1 + (1-λ)·x2, y_new = λ·y1 + (1-λ)·y2, wobei λ aus einer Beta-Verteilung gezogen wird.

    Relevanz für Marketing

    Mixup verbessert Generalisierung, Kalibrierung und Robustheit gegen adversariale Beispiele mit minimaler Implementierungskomplexität.

    Häufige Fallstricke

    Zu hohe Mixup-Stärke verwischt Klassen-Grenzen. Nicht für alle Datentypen geeignet (z.B. Text).

    Entstehung & Geschichte

    Eingeführt 2017 von Zhang, Cisse, Dauphin & Lopez-Paz (Facebook AI Research). CutMix (2019) und Manifold Mixup erweiterten das Konzept auf räumliche und latente Domains.

    Abgrenzung & Vergleiche

    Mixup vs. CutMix

    Mixup blendet ganze Bilder übereinander; CutMix schneidet einen Patch aus und ersetzt ihn mit einem Patch aus einem anderen Bild – erhält lokale Strukturen besser.

    Mixup vs. Label Smoothing

    Mixup erzeugt neue Inputs und Labels durch Interpolation; Label Smoothing weicht nur die Labels auf, ohne Inputs zu verändern.

    Weiterführende Ressourcen

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!