ROC-Kurve
Ein Diagramm, das die True Positive Rate gegen die False Positive Rate über alle Klassifikations-Schwellenwerte zeigt.
Die ROC-Kurve zeigt TPR vs FPR über alle Thresholds – AUC fasst Klassifikations-Performance in einer Zahl zusammen.
Erklärung
Die ROC-Kurve visualisiert den Tradeoff zwischen Sensitivity und Specificity. Die Fläche unter der Kurve (AUC) fasst die Gesamtperformance in einer Zahl zusammen (0.5 = Zufall, 1.0 = perfekt).
Relevanz für Marketing
ROC-Kurve und AUC sind Standard für Klassifikations-Modellvergleiche – threshold-unabhängig und intuitiv kommunizierbar.
Beispiel
Ein Betrugserkenner mit AUC=0.95 kann 90% der Betrugsfälle erkennen bei nur 5% False-Positive-Rate.
Häufige Fallstricke
ROC kann bei starker Class-Imbalance übertrieben optimistisch sein. PR-Kurve ist in solchen Fällen informativer.
Entstehung & Geschichte
Die ROC-Kurve wurde im Zweiten Weltkrieg für Radarsignalerkennung entwickelt und in den 1990ern zum ML-Standard.
Abgrenzung & Vergleiche
ROC-Kurve vs. PR-Kurve
ROC zeigt TPR vs FPR; PR-Kurve zeigt Precision vs Recall. PR ist informativer bei Class-Imbalance.