Skip to main content
    Zum Hauptinhalt springenZur Navigation springenZur Fußzeile springen
    Künstliche Intelligenz

    Message Passing

    Auch bekannt als:
    Message Passing
    Nachrichtenweitergabe
    MPNN
    Aktualisiert: 10.2.2026

    Message Passing ist das grundlegende Berechnungsparadigma von Graph Neural Networks, bei dem Knoten Informationen mit ihren Nachbarn austauschen.

    Kurz erklärt

    Message Passing lässt Graph-Knoten Informationen mit Nachbarn austauschen und aggregieren – das Kernprinzip aller Graph Neural Networks.

    Erklärung

    In jedem Message-Passing-Schritt sammelt ein Knoten Nachrichten von seinen Nachbarn, aggregiert sie (z. B. Summe, Mean, Max) und aktualisiert seine eigene Repräsentation. Nach k Schritten kennt jeder Knoten seine k-Hop-Nachbarschaft.

    Relevanz für Marketing

    Message Passing ist die theoretische Grundlage aller modernen GNN-Architekturen – vom Social-Network-Profiling bis zur Molekül-Eigenschaftsvorhersage.

    Häufige Fallstricke

    Over-Smoothing bei vielen Schichten (alle Knoten werden ähnlich), Over-Squashing bei langen Pfaden, hoher Speicherbedarf bei dichten Graphen.

    Entstehung & Geschichte

    Gilmer et al. (2017) vereinheitlichten verschiedene GNN-Ansätze unter dem "Message Passing Neural Network" (MPNN) Framework. Dies wurde zum De-facto-Standard für GNN-Forschung. PyTorch Geometric implementiert Message Passing als Basisklasse.

    Abgrenzung & Vergleiche

    Message Passing vs. Self-Attention (Transformer)

    Self-Attention betrachtet alle Tokens gleichzeitig (vollständiger Graph); Message Passing arbeitet nur mit lokalen Nachbarn (sparse Graph).

    Verwandte Services

    Verwandte Begriffe

    👋Fragen? Chatte mit uns!