Bootstrapping
Statistische Resampling-Methode, die wiederholt Stichproben mit Zurücklegen aus dem Datensatz zieht.
Bootstrapping zieht wiederholt zufällige Stichproben mit Zurücklegen, um Unsicherheit zu schätzen – Basis für Random Forest (Bagging) und robuste Statistik ohne Verteilungsannahmen.
Erklärung
Ermöglicht Schätzung von Konfidenzintervallen und Standardfehlern ohne parametrische Annahmen über die Verteilung.
Relevanz für Marketing
Bootstrapping ist die Basis für Bagging (Bootstrap Aggregating) und wird für robuste Modell-Evaluation verwendet.
Häufige Fallstricke
Nicht geeignet für zeitabhängige Daten. Kann bei sehr kleinen Datensätzen instabil sein. Rechnerisch teuer bei vielen Iterationen.
Entstehung & Geschichte
Eingeführt 1979 von Bradley Efron. Die Methode revolutionierte die Statistik, weil sie Konfidenzintervalle ohne analytische Formeln ermöglichte. Bagging (Breiman 1996) brachte sie ins Machine Learning.
Abgrenzung & Vergleiche
Bootstrapping vs. Cross-Validation
Cross-Validation teilt Daten ohne Wiederholung in Folds; Bootstrapping sampelt mit Wiederholung. CV ist Standard für Modell-Evaluation, Bootstrap für Unsicherheitsschätzung.
Bootstrapping vs. Jackknife
Jackknife lässt jeweils eine Beobachtung weg; Bootstrapping zieht viele zufällige Stichproben. Bootstrap ist flexibler und leistungsfähiger.