Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Integrated Gradients

    Auch bekannt als:
    Integrierte Gradienten
    IG
    Path-integrated Gradients
    Aktualisiert: 11.2.2026

    XAI-Methode, die Feature-Attributionen berechnet, indem Gradienten entlang eines Pfads von einer Baseline zum tatsächlichen Input integriert werden.

    Kurz erklärt

    Integrated Gradients berechnet axiomatisch korrekte Feature-Attributionen für Deep Learning – der theoretisch fundierteste Gradient-basierte XAI-Ansatz.

    Erklärung

    Integrated Gradients erfüllt zwei wichtige Axiome: Sensitivity (wenn ein Feature den Output ändert, bekommt es Attribution) und Implementation Invariance (gleiche Funktion = gleiche Attribution). Dies macht es theoretisch robuster als Vanilla Gradients oder DeepLIFT.

    Relevanz für Marketing

    Standard-Attribution für Deep Learning in Produktion. Von Google in Cloud AI Explanations und Captum (PyTorch) implementiert.

    Häufige Fallstricke

    Baseline-Wahl beeinflusst Ergebnis stark. Pfad-Abhängigkeit bei nicht-linearen Modellen. Rechenintensiver als einfache Gradients.

    Entstehung & Geschichte

    Sundararajan, Taly & Yan veröffentlichten Integrated Gradients 2017 (ICML). Google implementierte es in Cloud AI Explanations. Meta integrierte es in Captum. Die Methode wurde zum Standard für Deep Learning Attribution.

    Abgrenzung & Vergleiche

    Integrated Gradients vs. SHAP (DeepSHAP)

    Integrated Gradients nutzt Pfad-Integration (axiomatisch); DeepSHAP nutzt Shapley-Approximation (schneller, aber weniger exakt für tiefe Netze).

    Integrated Gradients vs. Saliency Map

    Saliency Maps nutzen einen Gradientenschritt (verrauscht); Integrated Gradients akkumuliert über den ganzen Pfad (robuster).

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!