Hold-Out Validierung
Einfachste Evaluationsmethode: Datensatz wird einmalig in Training und Testset aufgeteilt (z.B. 80/20).
Hold-Out teilt Daten einmalig in Training und Test (z.B. 80/20) – schnell aber abhängig vom zufälligen Split. K-Fold CV ist robuster, aber langsamer.
Erklärung
Schnell und einfach, aber das Ergebnis hängt stark von der zufälligen Aufteilung ab. Für kleine Datensätze oft nicht robust genug.
Relevanz für Marketing
Hold-Out ist der erste Schritt in jedem ML-Workflow und wird oft durch K-Fold CV ergänzt.
Häufige Fallstricke
Einmaliger Split ist nicht repräsentativ bei kleinen Daten. Stratifizierung vergessen. Ergebnis schwankt mit Random Seed.
Entstehung & Geschichte
Die einfachste Form der Modell-Evaluation, seit den Anfängen des ML verwendet. Wird in der Praxis oft als erster Schritt genutzt, bevor aufwändigere Methoden wie K-Fold angewendet werden.
Abgrenzung & Vergleiche
Hold-Out Validierung vs. K-Fold Cross-Validation
Hold-Out splittet einmal; K-Fold rotiert k verschiedene Splits. K-Fold ist robuster, Hold-Out ist schneller und einfacher.
Hold-Out Validierung vs. Bootstrapping
Hold-Out teilt ohne Wiederholung; Bootstrapping sampelt mit Wiederholung und gibt Konfidenzintervalle für die Schätzung.