Interpretable ML
ML-Modelle, die von Natur aus verständlich sind – ihre Entscheidungslogik kann direkt inspiziert werden, ohne zusätzliche Erklärungsmethoden.
Interpretable ML nutzt inhärent verständliche Modelle (Decision Trees, GAMs, EBMs) statt Black Boxes – oft gleiche Accuracy bei voller Transparenz.
Erklärung
Beispiele: Decision Trees, lineare/logistische Regression, Rule Lists, Generalized Additive Models (GAMs). Explainable Boosting Machines (EBMs) von InterpretML erreichen nahezu Black-Box-Accuracy bei voller Interpretierbarkeit.
Relevanz für Marketing
EU AI Act und DSGVO bevorzugen interpretierbare Modelle für Hochrisiko-Entscheidungen. In regulierten Branchen oft Pflicht (Banken, Gesundheit, Justiz).
Häufige Fallstricke
"Interpretierbares" Modell mit 1000 Features ist nicht wirklich interpretierbar. Decision Trees können durch Tiefe komplex werden. Accuracy-Trade-off wird oft überschätzt.
Entstehung & Geschichte
Cynthia Rudin argumentierte 2019 ("Stop Explaining Black Box Models"): Interpretierbare Modelle sollten bevorzugt werden. InterpretML (Microsoft, 2019) lieferte EBMs als leistungsfähige Alternative. Christoph Molnars "Interpretable ML" (2020) wurde zum Standardwerk.
Abgrenzung & Vergleiche
Interpretable ML vs. Explainability (Post-hoc)
Interpretable ML ist inhärent verständlich; Post-hoc Explainability (SHAP, LIME) erklärt Black Boxes nachträglich – kann irreführend sein.
Interpretable ML vs. Deep Learning
Deep Learning maximiert Accuracy auf Kosten der Interpretierbarkeit; Interpretable ML maximiert Verständlichkeit bei kompetitiver Accuracy.