Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Daten & Analytics
    (ROC Curve)

    ROC-Kurve

    Auch bekannt als:
    ROC
    Receiver Operating Characteristic
    ROC-Diagramm
    Aktualisiert: 12.2.2026

    Ein Diagramm, das die True Positive Rate gegen die False Positive Rate über alle Klassifikations-Schwellenwerte zeigt.

    Kurz erklärt

    Die ROC-Kurve zeigt TPR vs FPR über alle Thresholds – AUC fasst Klassifikations-Performance in einer Zahl zusammen.

    Erklärung

    Die ROC-Kurve visualisiert den Tradeoff zwischen Sensitivity und Specificity. Die Fläche unter der Kurve (AUC) fasst die Gesamtperformance in einer Zahl zusammen (0.5 = Zufall, 1.0 = perfekt).

    Relevanz für Marketing

    ROC-Kurve und AUC sind Standard für Klassifikations-Modellvergleiche – threshold-unabhängig und intuitiv kommunizierbar.

    Beispiel

    Ein Betrugserkenner mit AUC=0.95 kann 90% der Betrugsfälle erkennen bei nur 5% False-Positive-Rate.

    Häufige Fallstricke

    ROC kann bei starker Class-Imbalance übertrieben optimistisch sein. PR-Kurve ist in solchen Fällen informativer.

    Entstehung & Geschichte

    Die ROC-Kurve wurde im Zweiten Weltkrieg für Radarsignalerkennung entwickelt und in den 1990ern zum ML-Standard.

    Abgrenzung & Vergleiche

    ROC-Kurve vs. PR-Kurve

    ROC zeigt TPR vs FPR; PR-Kurve zeigt Precision vs Recall. PR ist informativer bei Class-Imbalance.

    Weiterführende Ressourcen

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!