Integrated Gradients
XAI-Methode, die Feature-Attributionen berechnet, indem Gradienten entlang eines Pfads von einer Baseline zum tatsächlichen Input integriert werden.
Integrated Gradients berechnet axiomatisch korrekte Feature-Attributionen für Deep Learning – der theoretisch fundierteste Gradient-basierte XAI-Ansatz.
Erklärung
Integrated Gradients erfüllt zwei wichtige Axiome: Sensitivity (wenn ein Feature den Output ändert, bekommt es Attribution) und Implementation Invariance (gleiche Funktion = gleiche Attribution). Dies macht es theoretisch robuster als Vanilla Gradients oder DeepLIFT.
Relevanz für Marketing
Standard-Attribution für Deep Learning in Produktion. Von Google in Cloud AI Explanations und Captum (PyTorch) implementiert.
Häufige Fallstricke
Baseline-Wahl beeinflusst Ergebnis stark. Pfad-Abhängigkeit bei nicht-linearen Modellen. Rechenintensiver als einfache Gradients.
Entstehung & Geschichte
Sundararajan, Taly & Yan veröffentlichten Integrated Gradients 2017 (ICML). Google implementierte es in Cloud AI Explanations. Meta integrierte es in Captum. Die Methode wurde zum Standard für Deep Learning Attribution.
Abgrenzung & Vergleiche
Integrated Gradients vs. SHAP (DeepSHAP)
Integrated Gradients nutzt Pfad-Integration (axiomatisch); DeepSHAP nutzt Shapley-Approximation (schneller, aber weniger exakt für tiefe Netze).
Integrated Gradients vs. Saliency Map
Saliency Maps nutzen einen Gradientenschritt (verrauscht); Integrated Gradients akkumuliert über den ganzen Pfad (robuster).