EU AI Act
Die erste umfassende gesetzliche Regulierung für Künstliche Intelligenz weltweit, die 2024 vom EU-Parlament verabschiedet wurde und risikobasierte Anforderungen für KI-Systeme festlegt.
Marketing-Teams müssen prüfen, welche ihrer KI-Tools in welche Risikokategorie fallen.
Erklärung
Der EU AI Act klassifiziert KI-Systeme in vier Risikokategorien: unakzeptables Risiko (verboten), hohes Risiko (streng reguliert), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (weitgehend unreguliert). Marketing-KI fällt meist in die Kategorien begrenztes oder minimales Risiko, aber Systeme zur biometrischen Identifikation oder Manipulation sind streng reglementiert oder verboten.
Relevanz für Marketing
Marketing-Teams müssen prüfen, welche ihrer KI-Tools in welche Risikokategorie fallen. Personalisierungssysteme, Chatbots und Content-Generatoren benötigen möglicherweise Transparenz-Hinweise. Ab 2025/2026 greifen schrittweise Compliance-Anforderungen.
Beispiel
Ein Marketing-Chatbot muss klar kennzeichnen, dass Nutzer mit einer KI interagieren. Emotionserkennung für Werbe-Targeting ist in bestimmten Kontexten verboten. Für High-Risk-Systeme sind technische Dokumentation und Risikobeurteilungen Pflicht.
Häufige Fallstricke
Unterschätzung der Kategorisierung: Viele Marketing-Tools könnten unter "begrenztes Risiko" fallen. Fehlende Dokumentation bei Audits. Hohe Strafen bis zu 35 Mio. € oder 7% des globalen Umsatzes.
Entstehung & Geschichte
EU AI Act ist ein etablierter Begriff im Bereich Künstliche Intelligenz. Das Konzept hat sich mit der zunehmenden Bedeutung von KI und datengetriebenen Methoden weiterentwickelt.