Message Passing
Message Passing ist das grundlegende Berechnungsparadigma von Graph Neural Networks, bei dem Knoten Informationen mit ihren Nachbarn austauschen.
Message Passing lässt Graph-Knoten Informationen mit Nachbarn austauschen und aggregieren – das Kernprinzip aller Graph Neural Networks.
Erklärung
In jedem Message-Passing-Schritt sammelt ein Knoten Nachrichten von seinen Nachbarn, aggregiert sie (z. B. Summe, Mean, Max) und aktualisiert seine eigene Repräsentation. Nach k Schritten kennt jeder Knoten seine k-Hop-Nachbarschaft.
Relevanz für Marketing
Message Passing ist die theoretische Grundlage aller modernen GNN-Architekturen – vom Social-Network-Profiling bis zur Molekül-Eigenschaftsvorhersage.
Häufige Fallstricke
Over-Smoothing bei vielen Schichten (alle Knoten werden ähnlich), Over-Squashing bei langen Pfaden, hoher Speicherbedarf bei dichten Graphen.
Entstehung & Geschichte
Gilmer et al. (2017) vereinheitlichten verschiedene GNN-Ansätze unter dem "Message Passing Neural Network" (MPNN) Framework. Dies wurde zum De-facto-Standard für GNN-Forschung. PyTorch Geometric implementiert Message Passing als Basisklasse.
Abgrenzung & Vergleiche
Message Passing vs. Self-Attention (Transformer)
Self-Attention betrachtet alle Tokens gleichzeitig (vollständiger Graph); Message Passing arbeitet nur mit lokalen Nachbarn (sparse Graph).