Neue Forschung zum graphkontrastiven Lernen Teil 10 (Maschinelles Lernen 2024) | von Monodeep Mukherjee | Mai 2024

  1. Adversarial Curriculum Graph Kontrastives Lernen mit paarweiser Augmentation (arXiv)

Autoren: Xinjian Zhao, Liang Zhang, Yang Liu, Ruocheng Guo, Xiangyu Zhao

Zusammenfassung: Graphkontrastives Lernen (GCL) hat sich zu einer zentralen Technik im Bereich des Lernens der Graphdarstellung entwickelt. Ein entscheidender Aspekt einer effektiven GCL ist die Qualität der generierten positiven und negativen Proben, die im Wesentlichen durch ihre Ähnlichkeit mit den Originaldaten bestimmt wird. Dennoch stellt die präzise Kontrolle der Ähnlichkeit während der Probengenerierung eine gewaltige Herausforderung dar und behindert oft die effektive Entdeckung repräsentativer Diagrammmuster. Um dieser Herausforderung zu begegnen, schlagen wir ein innovatives Framework vor: Adversarial Curriculum Graph Contrastive Learning (ACGCL), das sich die Vorzüge der paarweisen Augmentation zunutze macht, um positive und negative Stichproben auf Graphenebene mit kontrollierbarer Ähnlichkeit zu erzeugen, sowie subgraphisches kontrastives Lernen, um wirksam zu erkennen Diagrammmuster darin. Im Rahmen des ACGCL-Rahmens haben wir eine neuartige kontradiktorische Lehrplan-Trainingsmethode entwickelt, die progressives Lernen erleichtert, indem die Schwierigkeit der Unterscheidung der generierten Stichproben sukzessive erhöht wird. Bemerkenswert ist, dass dieser Ansatz das vorherrschende Problem der Sparsität, das herkömmlichen Lehrplan-Lernstrategien innewohnt, überwindet, indem er sich adaptiv auf anspruchsvollere Trainingsdaten konzentriert. Abschließend wird eine umfassende Bewertung von ACGCL durch umfangreiche Experimente an sechs bekannten Benchmark-Datensätzen durchgeführt, wobei ACGCL eine Reihe modernster Basislinien deutlich übertrifft.

2. Kontrastives Lernen von Low-Rank-Graphen zur Knotenklassifizierung (arXiv)

Autoren: Yancheng Wang, Yingzhen Yang

Zusammenfassung: Graph Neural Networks (GNNs) werden häufig zum Erlernen von Knotendarstellungen verwendet und weisen bei verschiedenen Aufgaben wie der Knotenklassifizierung eine hervorragende Leistung auf. Allerdings würde Rauschen, das in realen Diagrammdaten zwangsläufig vorhanden ist, die Leistung von GNNs, wie aus jüngsten Studien hervorgeht, erheblich beeinträchtigen. In dieser Arbeit schlagen wir einen neuartigen und robusten GNN-Encoder vor, Low-Rank Graph Contrastive Learning (LR-GCL). Unsere Methode führt die transduktive Knotenklassifizierung in zwei Schritten durch. Zunächst wird ein GCL-Encoder mit niedrigem Rang namens LR-GCL durch prototypisches kontrastives Lernen mit Regularisierung mit niedrigem Rang trainiert. Anschließend wird unter Verwendung der von LR-GCL erzeugten Merkmale ein linearer transduktiver Klassifizierungsalgorithmus verwendet, um die unbeschrifteten Knoten im Diagramm zu klassifizieren. Unsere LR-GCL ist von der Niederfrequenzeigenschaft der Diagrammdaten und ihrer Beschriftungen inspiriert und theoretisch auch durch unsere scharfe Verallgemeinerungsgrenze für transduktives Lernen motiviert. Nach unserem besten Wissen ist unser theoretisches Ergebnis eines der ersten, das theoretisch den Vorteil des Low-Rang-Lernens beim graphkontrastiven Lernen belegt, das durch eine starke empirische Leistung unterstützt wird. Umfangreiche Experimente zu öffentlichen Benchmarks belegen die überlegene Leistung von LR-GCL und die Robustheit der erlernten Knotendarstellungen. Der Code von LR-GCL ist verfügbar unter url{https://anonymous.4open.science/r/Low-Rank_Graph_Contrastive_Learning-64A6/}

Lesen Sie auch  Mar Flores, Mutter von Carlo Costanzia, spricht über ihre Kinder

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.