Instance Normalization
Instance Normalization normalisiert jede Feature-Map (Channel) jedes Samples einzeln – Standard in Style Transfer und Bildgenerierung.
Instance Normalization normalisiert jeden Channel einzeln pro Bild – entfernt Stil-Info und ist Standard in Style Transfer und GANs.
Erklärung
IN normalisiert über H×W für jeden Channel und jedes Sample separat. Entfernt Stil-Informationen (Kontrast, Helligkeit) und erhält Inhaltsstruktur. Daher ideal für Style Transfer und GANs.
Relevanz für Marketing
Essentiell für Neural Style Transfer, GANs und Bildgenerierung – dort wo Batch/Layer Norm versagen.
Entstehung & Geschichte
Ulyanov et al. (2016) führten Instance Normalization für Fast Style Transfer ein. Es wurde zum Standard in Pix2Pix, CycleGAN und SPADE. Adaptive Instance Norm (AdaIN) erweiterte IN für dynamische Stil-Kontrolle.
Abgrenzung & Vergleiche
Instance Normalization vs. Batch Normalization
BatchNorm normalisiert über den Batch; InstanceNorm pro Sample und Channel – besser für Stil-basierte Aufgaben.