Multi-Head Attention
Multi-Head Attention führt mehrere Attention-Berechnungen parallel mit verschiedenen gelernten Projektionen durch und kombiniert die Ergebnisse.
Multi-Head Attention teilt Attention in parallele Köpfe auf, die verschiedene Aspekte lernen – das Kernmodul jedes Transformers von GPT bis Gemini.
Erklärung
Statt einer einzigen Attention-Berechnung werden Queries, Keys und Values in h Köpfe aufgeteilt (z.B. 32 bei GPT-3). Jeder Kopf lernt verschiedene Aspekte: ein Kopf für Syntax, einer für Semantik, einer für Co-Referenz. Die Outputs werden konkateniert und linear projiziert.
Relevanz für Marketing
Multi-Head Attention ist das Kernmodul jedes Transformers – GPT, BERT, T5, LLaMA, Gemini – alle nutzen es.
Häufige Fallstricke
Mehr Heads = mehr Memory für KV-Cache. Head-Dimension muss Modell-Dimension teilen. Nicht alle Heads sind gleich wichtig (Pruning möglich).
Entstehung & Geschichte
Eingeführt im "Attention Is All You Need"-Paper (Vaswani et al., 2017) als Kern des Transformers. Die Idee: statt einer breiten Attention, mehrere fokussierte "Perspektiven". Seitdem Standard in jedem Transformer-Modell.
Abgrenzung & Vergleiche
Multi-Head Attention vs. Single-Head Attention
Single-Head hat eine Perspektive; Multi-Head lernt verschiedene Beziehungsmuster parallel – deutlich ausdrucksstärker.
Multi-Head Attention vs. Grouped-Query Attention (GQA)
MHA: Jeder Head hat eigene K/V (volle Expressivität, großer KV-Cache); GQA: Gruppen teilen K/V (weniger Cache, fast gleiche Qualität).