Time Series Foundation Model
Vortrainierte Transformer-Modelle für Zeitreihen, die Zero-Shot-Forecasting ohne spezifisches Training ermöglichen.
Time Series Foundation Models wie TimesFM und Chronos ermöglichen Zero-Shot-Forecasting – vortrainierte Transformer für sofortige Prognosen.
Erklärung
TimesFM (Google), Chronos (Amazon), Lag-Llama und TimeGPT (Nixtla) erfassen universelle Zeitreihen-Muster.
Relevanz für Marketing
Demokratisiert Forecasting: Keine Feature-Engineering oder Modellauswahl nötig.
Häufige Fallstricke
Noch nicht so genau wie spezialisierte Modelle. Rechenintensiv. Frühe Entwicklungsphase.
Entstehung & Geschichte
Informer (2020) brachte Transformer in Zeitreihen. TimeGPT (Nixtla, 2023) erstes kommerzielles FM. TimesFM und Chronos (2024) validierten den Ansatz.
Abgrenzung & Vergleiche
Time Series Foundation Model vs. ARIMA
ARIMA wird pro Zeitreihe trainiert; Foundation Models generalisieren Zero-Shot.
Time Series Foundation Model vs. Prophet
Prophet wird pro Datensatz angepasst; Foundation Models brauchen keine Anpassung.