Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Accountability

    Auch bekannt als:
    Rechenschaftspflicht
    KI-Accountability
    Verantwortlichkeit
    Zurechenbarkeit
    Aktualisiert: 9.2.2026

    Die Verpflichtung, Verantwortung für KI-Entscheidungen zu übernehmen und deren Auswirkungen erklären zu können.

    Kurz erklärt

    Accountability bedeutet klare Verantwortlichkeit für AI-Entscheidungen: Wer ist zuständig, wer erklärt, wer haftet? Muss VOR Problemen geklärt sein.

    Erklärung

    Accountability erfordert: Klare Verantwortlichkeiten (wer ist zuständig?), Dokumentation (Audit Trails), Rechenschaft (Erklärung bei Problemen), Konsequenzen (Haftung). Teil des RAI-Frameworks.

    Relevanz für Marketing

    Wer ist verantwortlich wenn Marketing-AI diskriminiert, falsche Infos verbreitet oder Schaden verursacht? Accountability muss VOR dem Incident geklärt sein.

    Beispiel

    Ein Unternehmen definiert: AI-Product-Owner trägt Verantwortung für Modell-Outputs, dokumentiert in RACI-Matrix und Incident-Response-Playbook.

    Häufige Fallstricke

    Diffuse Verantwortung ("niemand zuständig"). Audit Trails fehlen. Accountability auf Papier, nicht in Praxis.

    Entstehung & Geschichte

    Algorithmic Accountability Act (USA, vorgeschlagen 2019) und EU AI Act (2024) machten Accountability zur rechtlichen Anforderung. IEEE und ISO entwickeln Standards.

    Abgrenzung & Vergleiche

    Accountability vs. Responsibility

    Responsibility ist die moralische Pflicht; Accountability ist die formale Zurechenbarkeit mit Konsequenzen.

    Accountability vs. Transparency

    Transparency macht sichtbar was passiert; Accountability macht klar wer dafür verantwortlich ist.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!