Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz
    (Counterfactual Explanation)

    Kontrafaktische Erklärung

    Aktualisiert: 10.2.2026

    Erklärungsmethode, die zeigt, welche minimale Eingabe-Änderung zu einem anderen Modell-Ergebnis geführt hätte.

    Kurz erklärt

    Counterfactual Explanations zeigen die kleinste Eingabe-Änderung für ein anderes Ergebnis – die intuitivste und DSGVO-konformste XAI-Methode.

    Erklärung

    "Ihr Kreditantrag wurde abgelehnt. Hätten Sie 5.000€ mehr Jahreseinkommen, wäre er genehmigt worden." Counterfactuals sind intuitiv und handlungsorientiert.

    Relevanz für Marketing

    Counterfactual Explanations sind besonders DSGVO-relevant und die menschenfreundlichste Form der KI-Erklärung.

    Häufige Fallstricke

    Mehrere Counterfactuals möglich – welches zeigen? Unrealistische Vorschläge ("Werden Sie 20 Jahre jünger"). Instabilität bei kleinen Änderungen.

    Entstehung & Geschichte

    Wachter et al. formalisierten Counterfactual Explanations 2017 im Kontext der DSGVO. DiCE (Microsoft, 2020) machte die Generierung diverser Counterfactuals praktikabel. Die Methode gewann durch den EU AI Act weiter an Bedeutung.

    Abgrenzung & Vergleiche

    Kontrafaktische Erklärung vs. SHAP

    SHAP zeigt Feature-Beiträge zur aktuellen Vorhersage; Counterfactuals zeigen was sich ändern müsste für ein anderes Ergebnis.

    Kontrafaktische Erklärung vs. Feature Importance

    Feature Importance rankt Features nach Einfluss; Counterfactuals geben konkrete, actionable Änderungsvorschläge.

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!