Source Separation
Source Separation trennt ein gemischtes Audio-Signal in einzelne Quellen – z. B. Gesang, Drums, Bass und Instrumente aus einem Song.
Source Separation zerlegt gemischte Audio-Signale in einzelne Quellen – von Vocal-Isolation bis Podcast-Cleanup per KI.
Erklärung
Modelle wie Demucs (Meta) und HTDemucs nutzen U-Net-Architekturen im Zeit- und Frequenzbereich. Sie zerlegen Songs in 4-6 Stems. Auch Speech-von-Noise-Trennung gehört dazu.
Relevanz für Marketing
Ermöglicht Vocal-Isolation für Marketing-Remixes, Karaoke-Erstellung, Podcast-Cleanup und Musikanalyse.
Häufige Fallstricke
Artefakte bei starker Überlappung von Quellen. Copyright-Fragen bei Isolierung von Vocals. Mono-Mixe schwieriger als Stereo.
Entstehung & Geschichte
ICA (Independent Component Analysis, 1990er) war der klassische Ansatz. Wave-U-Net (2018) brachte neuronale Separation. Demucs (Meta, 2019-2023) wurde zum Open-Source-Standard. MDX-Net gewann Music Demixing Challenges.
Abgrenzung & Vergleiche
Source Separation vs. Speech Enhancement
Speech Enhancement entfernt Rauschen; Source Separation trennt beliebige Quellen (Gesang, Instrumente) voneinander.
Source Separation vs. Audio Generation
Audio Generation erzeugt neues Audio; Source Separation zerlegt bestehendes Audio in Komponenten.