Grad-CAM
XAI-Methode, die Heatmaps generiert, um zu zeigen, welche Bildbereiche ein CNN für seine Entscheidung am wichtigsten findet.
Grad-CAM visualisiert als Heatmap, welche Bildbereiche ein CNN für seine Entscheidung nutzt – der Standard für visuelle KI-Erklärbarkeit.
Erklärung
Grad-CAM nutzt die Gradienten der letzten Convolutional Layer, um Feature Maps nach Relevanz zu gewichten. Das Ergebnis ist eine Heatmap, die zeigt, wohin das Modell "schaut". Grad-CAM++ verbessert die Lokalisierung mehrerer Objekte.
Relevanz für Marketing
Essenziell für Vertrauen in Computer Vision: Medizinische Bildanalyse, autonomes Fahren, Quality Inspection – überall wo man verstehen muss, was das Modell sieht.
Beispiel
Ein Hautkrebs-Erkennungsmodell wird mit Grad-CAM überprüft: Die Heatmap zeigt, ob das Modell tatsächlich den Leberfleck analysiert oder nur Hintergrund-Artefakte.
Häufige Fallstricke
Grad-CAM zeigt nur letzte Layer-Aktivierungen – frühe Layer-Features bleiben unsichtbar. Heatmaps können irreführend sein bei Multi-Object-Szenen. Nicht für Non-CNN-Architekturen geeignet.
Entstehung & Geschichte
Selvaraju et al. veröffentlichten Grad-CAM 2017 (ICCV). Grad-CAM++ (2018) verbesserte Multi-Object-Lokalisierung. Score-CAM (2020) eliminierte die Gradientenabhängigkeit. Die Methode ist Standard in medizinischer KI-Erklärbarkeit.
Abgrenzung & Vergleiche
Grad-CAM vs. LIME
LIME ist modellunabhängig und perturbationsbasiert; Grad-CAM nutzt CNN-Gradienten direkt und ist schneller, aber CNN-spezifisch.
Grad-CAM vs. Saliency Map
Saliency Maps zeigen Pixel-Level-Gradienten (verrauscht); Grad-CAM aggregiert auf Feature-Map-Level (glattere Heatmaps).