Grid Search
Hyperparameter-Tuning-Methode, die systematisch alle Kombinationen eines vordefinierten Parameterraums durchprobiert.
Grid Search probiert systematisch alle Hyperparameter-Kombinationen – einfach zu implementieren, aber exponentiell teuer und meist weniger effizient als Random Search.
Erklärung
Grid Search testet jede Kombination (z.B. LR=[0.001, 0.01, 0.1] × Batch=[32, 64] = 6 Runs). Einfach aber exponentiell teuer.
Relevanz für Marketing
Grid Search ist der Einstieg ins Hyperparameter-Tuning. Für kleine Suchräume ausreichend, bei vielen Parametern besser Random Search oder Bayessche Optimierung.
Häufige Fallstricke
Exponentiell wachsender Aufwand. Verschwendet Budget auf unwichtige Parameter. Oft weniger effizient als Random Search.
Entstehung & Geschichte
Grid Search war jahrzehntelang Standard im ML. Bergstra & Bengio (2012) zeigten, dass Random Search bei gleicher Budget-Größe meist bessere Ergebnisse liefert, was die Dominanz von Grid Search beendete.
Abgrenzung & Vergleiche
Grid Search vs. Random Search
Grid Search testet alle Kombinationen systematisch; Random Search wählt zufällige Punkte – effizienter, weil es mehr vom Suchraum abdeckt.
Grid Search vs. Bayesian Optimization
Grid Search ist uninformiert (probiert blind alle Punkte); Bayessche Optimierung nutzt bisherige Ergebnisse für intelligentere Punktauswahl.