Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Daten & Analytics

    Log Loss

    Auch bekannt als:
    Logarithmischer Verlust
    Logistic Loss
    Binary Cross-Entropy
    Aktualisiert: 12.2.2026

    Eine Verlustfunktion, die die Qualität vorhergesagter Wahrscheinlichkeiten bewertet – bestraft falsche aber konfidente Vorhersagen exponentiell.

    Kurz erklärt

    Log Loss bewertet probabilistische Vorhersagen – bestraft falsch-konfidente Vorhersagen exponentiell.

    Erklärung

    Log Loss = -1/n × Σ[y·log(p) + (1-y)·log(1-p)]. Perfekte Vorhersagen ergeben Loss=0.

    Relevanz für Marketing

    Log Loss ist die Standard-Metrik für probabilistische Klassifikation – misst Kalibrierungsqualität.

    Häufige Fallstricke

    Sensibel gegenüber Outlier-Vorhersagen. Clipping erforderlich. Schwer interpretierbar ohne Baseline.

    Entstehung & Geschichte

    Log Loss basiert auf Maximum-Likelihood-Estimation und ist mathematisch identisch mit Binary Cross-Entropy.

    Abgrenzung & Vergleiche

    Log Loss vs. AUC

    AUC misst Ranking; Log Loss misst Kalibrierung. Beide zusammen geben das vollständige Bild.

    Weiterführende Ressourcen

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!