Ring Attention
Eine verteilte Attention-Technik, die lange Sequenzen über mehrere GPUs verteilt, indem KV-Blöcke ringförmig zwischen Devices weitergereicht werden.
Ring Attention verteilt Attention ringförmig über GPUs – ermöglicht Million-Token-Kontexte durch Überlappung von Compute und Kommunikation.
Erklärung
Jede GPU hält einen Teil der Sequenz und berechnet lokale Attention. KV-Blöcke werden ringförmig zur nächsten GPU gesendet, während gleichzeitig Attention berechnet wird. So wird Kommunikation und Compute überlappt, und extrem lange Kontexte (1M+ Tokens) werden möglich.
Relevanz für Marketing
Ring Attention ermöglicht Million-Token-Kontexte wie bei Gemini (2M) – ohne den Speicher einer einzelnen GPU zu überlasten.
Häufige Fallstricke
Erfordert schnelle Inter-GPU-Kommunikation (NVLink). Latenz bei geringer Batch-Size. Nicht trivial zu implementieren.
Entstehung & Geschichte
Liu et al. (UC Berkeley, 2023) führten Ring Attention ein. Gemini 1.5 (Google, 2024) nutzte ähnliche Techniken für 2M Token Kontext. Die Methode kombiniert Ideen aus Flash Attention mit Sequence Parallelism.
Abgrenzung & Vergleiche
Ring Attention vs. Flash Attention
Flash Attention optimiert Attention auf einer GPU (IO-Effizienz); Ring Attention verteilt Attention über mehrere GPUs (Speicher-Skalierung).
Ring Attention vs. Tensor Parallelism
Tensor Parallelism teilt Modell-Gewichte über GPUs; Ring Attention teilt die Sequenz über GPUs.