Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    GRU (Gated Recurrent Unit)

    Auch bekannt als:
    Gated Recurrent Unit
    GRU-Netzwerk
    GRU-Zelle
    Aktualisiert: 9.2.2026

    GRU ist eine vereinfachte RNN-Architektur mit Update- und Reset-Gate – weniger Parameter als LSTM bei vergleichbarer Leistung.

    Kurz erklärt

    GRU ist die schlankere Alternative zum LSTM – zwei statt drei Gates, schnelleres Training, ähnliche Leistung bei Sequenzverarbeitung.

    Erklärung

    GRU kombiniert Forget- und Input-Gate des LSTM in ein einziges Update-Gate. Das Reset-Gate kontrolliert, wie viel vergangener Kontext einfließt. Schneller zu trainieren als LSTM, oft ähnlich gute Ergebnisse.

    Relevanz für Marketing

    Historisch wichtig für Sequenzmodellierung, heute großteils von Transformern ersetzt. Noch relevant für Edge-Deployment und kleine Modelle.

    Entstehung & Geschichte

    Cho et al. (2014) führten GRU als effizientere Alternative zum LSTM (1997) ein. GRUs wurden besonders in maschineller Übersetzung und Speech populär. Ab 2017 ersetzten Transformer beide Architekturen für die meisten NLP-Aufgaben.

    Abgrenzung & Vergleiche

    GRU (Gated Recurrent Unit) vs. LSTM

    LSTM hat 3 Gates (Forget, Input, Output) + Cell State; GRU hat 2 Gates (Update, Reset) ohne separaten Cell State – einfacher, aber etwas weniger ausdrucksstark.

    GRU (Gated Recurrent Unit) vs. Transformer

    GRU verarbeitet sequenziell (langsam, kurzer Kontext); Transformer parallelisiert mit Attention (schnell, langer Kontext).

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!