Image-to-Image (img2img)
Image-to-Image transformiert ein Eingabebild basierend auf einem Text-Prompt und einem Denoise-Stärke-Parameter – von subtilen Änderungen bis zur kompletten Neugestaltung.
img2img transformiert bestehende Bilder mit Text-Prompts – von Stil-Variationen bis Szenen-Wechsel, gesteuert durch Denoise-Stärke.
Erklärung
Das Eingabebild wird teilweise verrauscht (je nach Stärke) und dann mit dem Text-Prompt als Guidance entrauscht. Niedrige Stärke = nah am Original. Hohe Stärke = fast neue Generierung. Kernfeature aller Diffusions-Tools.
Relevanz für Marketing
Essenziell für Marketing-Workflows: Produktbilder in verschiedene Szenen setzen, Stiländerungen, Quick Mockups aus Skizzen.
Beispiel
Ein Produktfoto wird mit img2img in 10 verschiedene saisonale Settings transformiert – Weihnachten, Sommer, Urban – ohne Neuaufnahme.
Häufige Fallstricke
Stärke-Balance ist Trial-and-Error. Feine Details gehen bei hoher Stärke verloren. Produkttreue bei starker Transformation schwierig.
Entstehung & Geschichte
Pix2Pix (Isola et al., 2017) war die erste Deep-Learning-basierte Image Translation. CycleGAN ermöglichte unpaarige Übersetzung. SDEdit (2021) brachte Stochastic Differential Editing. Stable Diffusion integrierte img2img als Kernfeature (2022). InstructPix2Pix (2023) ermöglichte natürliche Sprachanweisungen für Bildediting.
Abgrenzung & Vergleiche
Image-to-Image (img2img) vs. Text-to-Image
Text-to-Image startet von Rauschen; img2img startet von einem bestehenden Bild und transformiert es.
Image-to-Image (img2img) vs. Inpainting
img2img transformiert das gesamte Bild; Inpainting ändert nur maskierte Bereiche.