Continual Learning
Die Fähigkeit eines ML-Modells, kontinuierlich aus neuen Daten zu lernen, ohne zuvor gelerntes Wissen zu vergessen – das "Lifelong Learning"-Problem der KI.
Continual Learning ermöglicht KI-Modellen, neue Daten zu lernen, ohne zuvor Gelerntes zu vergessen – löst das "Catastrophic Forgetting"-Problem für dynamische Anwendungen.
Erklärung
Standard-Training vergisst alte Tasks beim Lernen neuer ("Catastrophic Forgetting"). Continual Learning nutzt Techniken wie Replay-Buffer, elastische Gewichtsstabilisierung (EWC), progressive Networks oder modulare Architekturen.
Relevanz für Marketing
Essentiell für Marketing-AI in dynamischen Märkten: Trend-Modelle müssen neue Trends lernen, ohne alte Produktkategorien zu vergessen. Recommendation-Engines müssen sich an veränderte Präferenzen anpassen.
Beispiel
Ein Fashion-Retailer hat eine Trend-Detection-AI: Jede Saison kommen neue Styles, aber das Modell muss auch klassische Kategorien erkennen. Continual Learning ermöglicht Updates ohne komplettes Retraining.
Häufige Fallstricke
Catastrophic Forgetting ist noch nicht vollständig gelöst. Balance zwischen Plastizität und Stabilität schwierig. Erhöhte Modell-Komplexität. Erfordert sorgfältige Evaluation.
Entstehung & Geschichte
Catastrophic Forgetting wurde 1989 von McCloskey & Cohen dokumentiert. EWC (Elastic Weight Consolidation, Kirkpatrick et al. 2017) war ein Durchbruch. 2023-2025 wird Continual Learning für LLM-Updates und RAG-Systeme immer relevanter.
Abgrenzung & Vergleiche
Continual Learning vs. Transfer Learning
Transfer Learning überträgt einmalig von Domäne A auf B; Continual Learning aktualisiert kontinuierlich über viele Tasks ohne Vergessen.
Continual Learning vs. Fine-Tuning
Standard Fine-Tuning kann vorheriges Wissen überschreiben; Continual Learning verhindert dies durch spezielle Techniken (EWC, Replay).