Accountability
Die Verpflichtung, Verantwortung für KI-Entscheidungen zu übernehmen und deren Auswirkungen erklären zu können.
Accountability bedeutet klare Verantwortlichkeit für AI-Entscheidungen: Wer ist zuständig, wer erklärt, wer haftet? Muss VOR Problemen geklärt sein.
Erklärung
Accountability erfordert: Klare Verantwortlichkeiten (wer ist zuständig?), Dokumentation (Audit Trails), Rechenschaft (Erklärung bei Problemen), Konsequenzen (Haftung). Teil des RAI-Frameworks.
Relevanz für Marketing
Wer ist verantwortlich wenn Marketing-AI diskriminiert, falsche Infos verbreitet oder Schaden verursacht? Accountability muss VOR dem Incident geklärt sein.
Beispiel
Ein Unternehmen definiert: AI-Product-Owner trägt Verantwortung für Modell-Outputs, dokumentiert in RACI-Matrix und Incident-Response-Playbook.
Häufige Fallstricke
Diffuse Verantwortung ("niemand zuständig"). Audit Trails fehlen. Accountability auf Papier, nicht in Praxis.
Entstehung & Geschichte
Algorithmic Accountability Act (USA, vorgeschlagen 2019) und EU AI Act (2024) machten Accountability zur rechtlichen Anforderung. IEEE und ISO entwickeln Standards.
Abgrenzung & Vergleiche
Accountability vs. Responsibility
Responsibility ist die moralische Pflicht; Accountability ist die formale Zurechenbarkeit mit Konsequenzen.
Accountability vs. Transparency
Transparency macht sichtbar was passiert; Accountability macht klar wer dafür verantwortlich ist.