K-Fold
Kreuzvalidierungs-Variante, die den Datensatz in k gleich große Teile aufteilt und k Modelle trainiert.
K-Fold teilt Daten in k Teile, trainiert k Modelle mit rotierendem Testset und mittelt die Ergebnisse – der Gold-Standard für robuste Modell-Evaluation.
Erklärung
Jeder Fold dient einmal als Testset, die restlichen k-1 als Training. Das Ergebnis ist der Durchschnitt über alle k Evaluationen.
Relevanz für Marketing
K-Fold mit k=5 oder k=10 ist der Standard für Modell-Evaluation und Hyperparameter-Tuning in der ML-Praxis.
Häufige Fallstricke
K zu klein (hohe Varianz) oder zu groß (hohe Compute-Kosten). Nicht für Zeitreihen geeignet ohne spezielle Splits.
Entstehung & Geschichte
K-Fold CV wurde in den 1970ern von Stone und Geisser formalisiert. k=10 etablierte sich als Kompromiss zwischen Bias und Varianz. Leave-One-Out (k=n) ist der Spezialfall.
Abgrenzung & Vergleiche
K-Fold vs. Hold-Out Validation
Hold-Out macht einen einzigen Split; K-Fold nutzt k verschiedene Splits und ist deutlich robuster, aber k-mal langsamer.
K-Fold vs. Stratified K-Fold
Standard K-Fold splittet zufällig; Stratified K-Fold erhält die Klassenverteilung in jedem Fold – wichtig bei Class Imbalance.