Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz
    (Multi-Head Attention (MHA))

    Multi-Head Attention

    Auch bekannt als:
    Mehr-Kopf-Attention
    MHA
    Parallele Attention-Köpfe
    Aktualisiert: 10.2.2026

    Multi-Head Attention führt mehrere Attention-Berechnungen parallel mit verschiedenen gelernten Projektionen durch und kombiniert die Ergebnisse.

    Kurz erklärt

    Multi-Head Attention teilt Attention in parallele Köpfe auf, die verschiedene Aspekte lernen – das Kernmodul jedes Transformers von GPT bis Gemini.

    Erklärung

    Statt einer einzigen Attention-Berechnung werden Queries, Keys und Values in h Köpfe aufgeteilt (z.B. 32 bei GPT-3). Jeder Kopf lernt verschiedene Aspekte: ein Kopf für Syntax, einer für Semantik, einer für Co-Referenz. Die Outputs werden konkateniert und linear projiziert.

    Relevanz für Marketing

    Multi-Head Attention ist das Kernmodul jedes Transformers – GPT, BERT, T5, LLaMA, Gemini – alle nutzen es.

    Häufige Fallstricke

    Mehr Heads = mehr Memory für KV-Cache. Head-Dimension muss Modell-Dimension teilen. Nicht alle Heads sind gleich wichtig (Pruning möglich).

    Entstehung & Geschichte

    Eingeführt im "Attention Is All You Need"-Paper (Vaswani et al., 2017) als Kern des Transformers. Die Idee: statt einer breiten Attention, mehrere fokussierte "Perspektiven". Seitdem Standard in jedem Transformer-Modell.

    Abgrenzung & Vergleiche

    Multi-Head Attention vs. Single-Head Attention

    Single-Head hat eine Perspektive; Multi-Head lernt verschiedene Beziehungsmuster parallel – deutlich ausdrucksstärker.

    Multi-Head Attention vs. Grouped-Query Attention (GQA)

    MHA: Jeder Head hat eigene K/V (volle Expressivität, großer KV-Cache); GQA: Gruppen teilen K/V (weniger Cache, fast gleiche Qualität).

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!