Deepfake
Deepfakes sind KI-generierte oder -manipulierte Medien (Video, Audio, Bilder), die Personen zeigen, die etwas tun oder sagen, was nie passiert ist.
Deepfakes sind KI-manipulierte Medien, die Personen realistisch fälschen – von Face Swaps bis Voice Cloning, mit enormen Implikationen für Sicherheit, Vertrauen und Regulation.
Erklärung
Techniken umfassen Face Swap (Gesicht ersetzen), Face Reenactment (Mimik übertragen), Voice Cloning und vollständige Video-Synthese. Erkennung wird zunehmend schwieriger. Ethik und Regulierung sind kritisch.
Relevanz für Marketing
Marketing muss Deepfake-Risiken kennen: Brand Protection, Consent bei AI-generierten Testimonials, Deepfake-Detection für Reputation Management.
Beispiel
Ein gefälschtes CEO-Video wird in Social Media geteilt – das Unternehmen braucht schnelle Deepfake-Detection und Kommunikationsstrategie.
Häufige Fallstricke
Deepfakes werden immer besser erkennbar. Jegliche Nutzung ohne Consent ist ethisch/rechtlich problematisch. Detection-Tools können false positives liefern.
Entstehung & Geschichte
Der Begriff "Deepfake" entstand 2017 auf Reddit. Frühe Techniken nutzten Autoencoders und GANs. FaceSwap und DeepFaceLab demokratisierten die Technologie. 2020-2023 verbesserten sich sowohl Deepfake-Qualität als auch Detection-Tools. EU AI Act klassifiziert Deepfakes regulatorisch. 2024-2025 sind Echtzeit-Deepfakes möglich.
Abgrenzung & Vergleiche
Deepfake vs. AI Watermarking (SynthID)
Deepfakes sind das Problem; AI Watermarking ist eine Lösung zur Kennzeichnung synthetischer Medien.
Deepfake vs. Voice Cloning
Deepfakes fokussieren auf visuellen Betrug; Voice Cloning ist eine Audio-Technik – beide zusammen sind besonders gefährlich.