GRU (Gated Recurrent Unit)
GRU ist eine vereinfachte RNN-Architektur mit Update- und Reset-Gate – weniger Parameter als LSTM bei vergleichbarer Leistung.
GRU ist die schlankere Alternative zum LSTM – zwei statt drei Gates, schnelleres Training, ähnliche Leistung bei Sequenzverarbeitung.
Erklärung
GRU kombiniert Forget- und Input-Gate des LSTM in ein einziges Update-Gate. Das Reset-Gate kontrolliert, wie viel vergangener Kontext einfließt. Schneller zu trainieren als LSTM, oft ähnlich gute Ergebnisse.
Relevanz für Marketing
Historisch wichtig für Sequenzmodellierung, heute großteils von Transformern ersetzt. Noch relevant für Edge-Deployment und kleine Modelle.
Entstehung & Geschichte
Cho et al. (2014) führten GRU als effizientere Alternative zum LSTM (1997) ein. GRUs wurden besonders in maschineller Übersetzung und Speech populär. Ab 2017 ersetzten Transformer beide Architekturen für die meisten NLP-Aufgaben.
Abgrenzung & Vergleiche
GRU (Gated Recurrent Unit) vs. LSTM
LSTM hat 3 Gates (Forget, Input, Output) + Cell State; GRU hat 2 Gates (Update, Reset) ohne separaten Cell State – einfacher, aber etwas weniger ausdrucksstark.
GRU (Gated Recurrent Unit) vs. Transformer
GRU verarbeitet sequenziell (langsam, kurzer Kontext); Transformer parallelisiert mit Attention (schnell, langer Kontext).