Convergence of Message Passing Graph Neural Networks with Generic Aggregation On Large Random Graphs
- Others:
- GIPSA Pôle Géométrie, Apprentissage, Information et Algorithmes (GIPSA-GAIA) ; Grenoble Images Parole Signal Automatique (GIPSA-lab) ; Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ) ; Université Grenoble Alpes (UGA)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ) ; Université Grenoble Alpes (UGA)
- Centre National de la Recherche Scientifique (CNRS)
- Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA) ; Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes) ; Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique (IMT Atlantique) ; Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)
- Laboratoire Jean Alexandre Dieudonné (LJAD) ; Université Nice Sophia Antipolis (1965 - 2019) (UNS)-Centre National de la Recherche Scientifique (CNRS)-Université Côte d'Azur (UniCA)
- ANR-15-IDEX-0002,UGA,IDEX UGA(2015)
- ANR-11-LABX-0025,PERSYVAL-lab,Systemes et Algorithmes Pervasifs au confluent des mondes physique et numérique(2011)
- ANR-21-CE23-0006,GRandMa,Graphes Aléatoires en Apprentissage Statistique(2021)
- ANR-21-CE48-0009,GRANOLA,Processus ponctuels déterminantaux sur graphes pour l'algèbre linéaire numérique randomisée(2021)
- ANR-18-CE40-0005,GraVa,Méthodes variationnelles pour les signaux sur graphe(2018)
Description
We study the convergence of message passing graph neural networkson random graph models to their continuous counterpart as the number ofnodes tends to infinity. Until now, this convergence was only known forarchitectures with aggregation functions in the form of normalized means, or,equivalently, of an application of classical operators like the adjacency matrixor the graph Laplacian. We extend such results to a large class of aggregationfunctions, that encompasses all classically used message passing graph neuralnetworks, such as attention-based message passing, max convolutional messagepassing, (degree-normalized) convolutional message passing, or moment-based aggregation message passing. Under mildassumptions, we give non-asymptotic bounds with high probability to quantifythis convergence. Our main result is based on the McDiarmid inequality.Interestingly, this result does not apply to the case where the aggregation is acoordinate-wise maximum. We treat this case separately and obtain a differentconvergence rate.
Additional details
- URL
- https://hal.science/hal-04059402
- URN
- urn:oai:HAL:hal-04059402v3
- Origin repository
- UNICA