Memory Augmentation
Techniken zur Erweiterung des effektiven Kontexts von LLMs über das Token-Limit hinaus – ermöglicht Erinnerung an frühere Gespräche, Fakten und Nutzerpräferenzen.
Memory Augmentation gibt LLMs Langzeitgedächtnis – sie erinnern sich an frühere Gespräche, Fakten und Nutzerpräferenzen über Session-Grenzen hinweg.
Erklärung
Memory Augmentation nutzt: Vector Stores für semantische Suche in vergangenen Conversations, Summary-Chains für Komprimierung, Structured Memory für Fakten-Extraktion, Working Memory für aktuelle Session. Kombiniert kurzfristiges und langfristiges Gedächtnis.
Relevanz für Marketing
Kritisch für personalisierte AI: Chatbots die Kundenpräferenzen erinnern, Marketing-Assistenten die Kampagnen-History kennen, Support-Bots mit Ticket-Kontext. Transformiert One-Shot-Interactions zu echten Beziehungen.
Beispiel
Ein Kunden-Chatbot mit Memory: Erinnert Produktpräferenzen, vergangene Bestellungen, Support-Issues. "Hallo Max, wie läuft das neue Setup? Übrigens: Das Accessoire, das du letzten Monat angeschaut hast, ist jetzt 20% reduziert."
Häufige Fallstricke
Privacy-Concerns bei persistent Memory. Veraltete Informationen können misleaden. Retrieval-Fehler bei großem Memory-Store. Kosten für Vector-Storage. GDPR-konforme Löschung erforderlich.
Entstehung & Geschichte
Memory-Erweiterung für LLMs wurde 2023 mit MemGPT und LangChain Memory populär. 2024 folgten persistente Memory-APIs von OpenAI und Anthropic.
Abgrenzung & Vergleiche
Memory Augmentation vs. Context Window
Context Window ist temporär und begrenzt. Memory Augmentation speichert Informationen persistent über Sessions hinweg.