Grafovska neuronska mreža
Grafovske neuronske mreže ( GNN, Graph Neural Network ) su specijalizirane veštačke neuronske mreže dizajnirane za zadatke čiji su ulazni podaci grafovi.[1][2][3][4][5]
Jedan istaknuti primjer je molekularni dizajn lijekova.[6][7][8] Svaki ulazni uzorak je grafički prikaz molekule, gdje atomi formiraju čvorove, a hemijske veze između atoma formiraju grane.Osim grafičkog prikaza, ulazni podaci sadrže i poznata hemijska svojstva svakog atoma.. Uzorci iz skupa podataka stoga se mogu razlikovati po dužini, što odražava različite brojeve atoma u molekulama i različiti broj veza između njih. Zadatak je predvidjeti efikasnost date molekule za određenu medicinsku primjenu, poput eliminacije bakterije E. coli .
Ključni element dizajna GNN-ova je korištenje parnog prenošenja poruka, tako da čvorovi grafa iterativno ažuriraju svoje reprezentacije razmjenjujući informacije sa svojim susjedima. Predloženo je nekoliko GNN arhitektura,[1][2][9][10] koje implementiraju različite vrste prenošenja poruka,[11][12] počevši od rekurzivnih[1] ili konvolucijskih[2] pristupa. Prema podacima iz 2022. godine ostaje nejasno da li je moguće definisati GNN arhitekture koje idu "izvan" prenošenja poruka, ili se, pak, svaka GNN može izgraditi na osnovu prenošenja poruka putem adekvatno definisanih grafova.[13]

U širem kontekstu "geometrijskog dubokog učenja", određene postojeće arhitekture neuronskih mreža mogu se interpretirati kao GNN-ovi koji rade na odgovarajuće definiranim grafovima.[11] Sloj konvolucijske neuronske mreže, u kontekstu kompjuterskog vida, može se smatrati GNN-om primijenjenim na grafove čiji su čvorovi pikseli, a samo susjedni pikseli su povezani granama u grafu. Transformatorski sloj, u obradi prirodnog jezika, može se smatrati GNN-om primijenjenim na potpune grafove čiji su čvorovi riječi ili tokeni u odlomku teksta prirodnog jezika .
Relevantni domeni primjene za GNN uključuju obradu prirodnog jezika,[14] društvene mreže,[15] citatne mreže,[16] molekularnu biologiju,[17] hemiju,[18][19] fiziku[20] i NP-teške probleme kombinatorne optimizacije.[21]
Biblioteke otvorenog koda koje implementiraju GNN-ove uključuju PyTorch Geometric[22] ( PyTorch ), TensorFlow GNN[23] ( TensorFlow ), Deep Graph Library[24] (nezavisna od okvira), jraph[25] ( Google JAX ) i GraphNeuralNetworks.jl[26] /GeometricFlux.jl[27] ( Julia, Flux ).
Arhitektura
[uredi | uredi izvor]Arhitektura generičkog GNN-a implementira sljedeće osnovne slojeve :
- Permutacijsko ekvivarijantni sloj : permutacijsko ekvivarijantni sloj preslikava reprezentaciju grafa u ažuriranu reprezentaciju istog grafa. U literaturi, permutacijski ekvivarijantni slojevi se implementiraju putem parnog prijenosa poruka između čvorova grafa.[11][13] Intuitivno, u sloju prijenosa poruka, čvorovi ažuriraju svoje reprezentacije agregiranjem poruka primljenih od svojih neposrednih susjeda. Kao takav, svaki sloj prijenosa poruka povećava receptivno polje GNN-a za jedan skok.
- Lokalno združivanje : sloj lokalnog združivanja ugrubljuje graf putem smanjenja uzorkovanja . Lokalno grupiranje se koristi za povećanje receptivnog polja GNN-a, na sličan način kao grupiranje slojeva u konvolucijskim neuronskim mrežama. Primjeri uključuju grupiranje k najbližih susjeda, grupiranje top-k[28] i grupiranje samo-pažnje.
- Globalno grupiranje: sloj globalnog grupiranja, također poznat kao sloj za očitavanje, pruža reprezentaciju cijelog grafa fiksne veličine. Sloj globalnog grupiranja mora biti invarijantan u odnosu na permutacije, tako da permutacije u redoslijedu čvorova i grana grafa ne mijenjaju konačni izlaz.[29] Primjeri uključuju zbir po elementima, srednju vrijednost ili maksimum.
Dokazano je da GNN-ovi ne mogu biti izražajniji od Weisfeiler-Lemanovog testa izomorfizma grafova.[30][31] U praksi, to znači da postoje različite strukture grafova (npr. molekule s istim atomima, ali različitim vezama ) koje GNN-ovi ne mogu razlikovati. Mogu se dizajnirati moćniji GNN-ovi koji djeluju na geometrijama viših dimenzija, kao što su simplicijalni kompleksi.[12][32][33] Prema podacima iz 2022, da li će buduće arhitekture prevazići primitivnost prenosa poruka, ostaje nejasno.[13]

Slojevi za prenos poruka
[uredi | uredi izvor]
Slojevi za prenos poruka su permutacijsko ekvivarijantni slojevi koji preslikavaju graf u ažuriranu reprezentaciju istog grafa. Formalno, mogu se izraziti kao neuronske mreže za prenos poruka (MPNN).[11]
Neka je graf, gdje je skup čvorova i je skup grana. Neka je susjedstvo nekog čvora Osim toga, neka su karakteristike čvora i su karakteristike grana . MPNN sloj se može izraziti na sljedeći način:[11]
Gdje su i diferencijabilne funkcije (npr. veštačke neuronske mreže), a je operator permutaciono-invariantne agregacije koji može prihvatiti proizvoljan broj ulaza (npr. zbir po elementima, srednja vrijednost ili maksimum). Konkretno, i se nazivaju funkcije ažuriranja odnosno poruke. Intuitivno, u računarskom bloku MPNN-a, čvorovi grafa ažuriraju svoje reprezentacije agregirajući poruke primljene od svojih susjeda.
Izlazi jednog ili više MPNN slojeva su reprezentacije čvorova za svaki čvor u grafu. Reprezentacije čvorova mogu se koristiti za bilo koji nizvodni zadatak, kao što je klasifikacija čvorova/grafa ili predviđanje grana.
Čvorovi grafa u MPNN-u ažuriraju svoju reprezentaciju agregiranjem informacija od svojih neposrednih susjeda. Kao takvo, slaganje MPNN slojeva znači da će jedan čvor moći komunicirati s čvorovima koji su najviše "skoka" dalje. U principu, da bi se osiguralo da svaki čvor prima informacije od svakog drugog čvora, bilo bi potrebno složiti određeni broj MPNN slojeva jednak prečniku grafa. Međutim, slaganje mnogih MPNN slojeva može uzrokovati probleme poput prekomjernog zaglađivanja[34] i prekomjernog zgnječenja.[35] Prekomjerno zaglađivanje se odnosi na problem nerazlučivosti reprezentacija čvorova. Prekomjerno zgnječenje se odnosi na problem koji nastaje stiskanjem dugodometnih zavisnosti u reprezentacije fiksne veličine. Protivmjere poput preskakanja veza[9][36] (kao u rezidualnim neuronskim mrežama ), pravila ažuriranja sa zatvaračima[37] i preskakanje znanja[38] mogu ublažiti prekomjerno zaglađivanje. Modificiranje konačnog sloja da bude potpuno susjedni sloj, tj. razmatranjem grafa kao kompletni graf, može ublažiti prekomjerno zgnječenje u problemima gdje su potrebne dugodometne zavisnosti.[35]
U literaturi su razvijene i druge "varijante" MPNN-a,[11] kao što su konvolucijske mreže grafova[39] i mreže pažnje grafova,[10] čije se definicije mogu izraziti u terminima formalizma MPNN-a.
Konvolucijska mreža grafova
[uredi | uredi izvor]Konvolucijsku mrežu grafova (GCN, Graph Convolutional Network) prvi put su predstavili Thomas Kipf i Max Welling 2017. godine.[39]
GCN sloj definira aproksimaciju prvog reda lokaliziranog spektralnog filtera na grafovima. GCN-ovi se mogu shvatiti kao generalizacija konvolucijskih neuronskih mreža na podatke strukturirane grafovima.
Formalni izraz GCN sloja glasi:
gdje je matrica reprezentacija čvorova , je matrica karakteristika čvorova , je aktivacijska funkcija (npr. ReLU ), je matrica susjednosti grafa s dodatkom vlastitih petlji, je matrica stepena grafa sa dodatkom samopetlji, i je matrica parametara koje je moguće trenirati.
Posebno, neka je matrica susjednosti grafa: tada se može definirati i , gdje označava jediničnu matricu . Ova normalizacija osigurava da svojstvene vrijednosti od su ograničeni u rasponu , izbjegavajući numeričke nestabilnosti i eksplodirajuće/nestajuće gradijente .
Ograničenje GCN-ova je to što ne dozvoljavaju višedimenzionalne karakteristike grane .[39] Međutim, moguće je povezati skalarne težine na svaku granu nametanjem , tj. postavljanjem svakog unosa različitog od nule u matrici susjednosti na jednakoj težini sa odgovarajućom granom.
Graf mreže pažnje
[uredi | uredi izvor]Graf mreže pažnje (GAT, Graph Attention Network) predstavili su Petar Veličković i saradnici 2018. godine.[10]
Grafička mreže pažnje je kombinacija GNN-a i sloja pažnje. Implementacija sloja pažnje u grafičkim neuronskim mrežama pomaže u usmjeravanju pažnje ili fokusa na važne informacije od podataka umjesto fokusiranja na cijelokupnim podacima.
Višeglavni GAT sloj može se izraziti na sljedeći način:
gdje je broj glava za pažnju, označava spajanje vektora, je aktivacijska funkcija (npr. ReLU ), su koeficijenti pažnje, i je matrica parametara za obuku -te glave za pažnju.
Za završni GAT sloj, uzima se srednja vrednost svih glava za pažnju prije primjene aktivacijske funkcije. Formalno, završni GAT sloj se može napisati kao:
Pažnja u mašinskom učenju je tehnika koja oponaša kognitivnu pažnju. U kontekstu učenja na grafovima, koeficijent pažnje mjeri koliko je važan čvor čvoru .
Normalizirani koeficijenti pažnje izračunavaju se na sljedeći način:
gdje je vektor naučivih težina, označava transpoziciju, su karakteristike grane (ako su prisutne), i je modificirana ReLU aktivacijska funkcija. Koeficijenti pažnje su normalizirani kako bi se mogli lako upoređivati između različitih čvorova.[10]
GCN može se posmatrati kao poseban slučaj GAT-a gdje koeficijenti pažnje nisu naučivi, već su fiksni i jednaki težinama grana .
Neuronska mreža sa zatvorenom sekvencom grafova
[uredi | uredi izvor]Neuronsku mrežu sa zatvorenom sekvencom grafova (GGS-NN Gated Graph Sequence Neural Network) predstavili su Yujia Li i saradnici 2015. godine.[37] GGS-NN proširuje formulaciju GNN-a koju su dali Scarselli i saradnici na izlazne sekvence.[1] Okvir za prenos poruka implementiran je kao pravilo ažuriranja za ćeliju sa zatvorenom rekurentnom jedinicom (GRU Gated Recurrent Unit).
GGS-NN se može izraziti na sljedeći način:
gdje označava konkatenacija vektora, je vektor nula, je matrica naučivih parametara, je ćelija GRU-a, i označava indeks sekvence. U GGS-NN, reprezentacije čvorova se smatraju skrivenim stanjima GRU ćelije. Početne karakteristike čvora se dopunjuju nulama do dimenzije skrivenog stanja GRU ćelije. Ista GRU ćelija se koristi za ažuriranje reprezentacija za svaki čvor.
Lokalni slojevi za grupiranje
[uredi | uredi izvor]Lokalni slojevi združivanja pogrubljuju graf putem smanjivanja uzorkovanja. Nakon toga, predstavljeno je nekoliko predloženih naučivih strategija lokalnog udruživanja. Za svaki slučaj, ulaz je početni graf predstavljen matricom karakteristika čvorova i matricom susjedstva grafa . Izlaz je nova matrica karakteristika čvorova i nova matrica susjedstva grafa .
Top-k združivanje
[uredi | uredi izvor]Prvo postavljamo:
gdje je projekcijski naučivi vektor. Projekcijski vektor izračunava skalarnu projekcijsku vrijednost za svaki čvor grafa.
Gornji loj objedinjavanja top-k se tada može formalizirati na sljedeći način:
gdje je podskup čvorova sa najvišim rezultatima projekcije od top-k, označava množenje matrica po elementima, i je sigmoidna funkcija . Drugim riječima, čvorovi sa najvišim rezultatima projekcije top-k zadržavaju se u novoj matrici susjednosti. . funkcija pravi vektor projekcije obučljivo povratnim širenjem, što bi inače proizvodilo diskretne rezultate.
Združivanje samopažnje
[uredi | uredi izvor]Prvo smo postavili
gdje je generički permutacijsko ekvivarijantni GNN sloj (npr. GCN, GAT, MPNN).
Sloj združivanja samo-pažnje se tada može formalizirati na sljedeći način:
gdje je podskup čvorova sa najvišim rezultatima projekcije od top-k, i označava množenje matrica po elementima .
Sloj združivanja samopažnje može se posmatrati kao proširenje sloja združivanja top-k. Za razliku od objedinjavanja top-k, rezultati samopažnje izračunati u združivanju samopažnje uzimaju u obzir i karakteristike grafa i topologiju grafa.
Heterofilno učenje grafova
[uredi | uredi izvor]Princip homofilije, tj. čvorovi s istim oznakama ili sličnim atributima imaju veću vjerovatnoću da budu povezani, uobičajeno se smatra glavnim razlogom superiornosti grafovskih neuronskih mreža (GNN) u odnosu na tradicionalne neuronske mreže (NN, Neural Network) na podacima strukturiranim grafovima, posebno na zadacima na nivou čvorova.[40] Međutim, nedavni rad je identificirao netrivijalni skup skupova podataka gdje performanse GNN-a u poređenju s NN-ovima nisu zadovoljavajuće.[41] Heterofilija, tj. niska homofilija, smatra se glavnim uzrokom ovog empirijskog zapažanja.[42] Ljudi su počeli preispitivati i ponovo procjenjivati većinu postojećih modela grafova u scenariju heterofilije na različitim vrstama grafova, npr. heterogenim grafovima, vremenskim grafovima i hipergrafovima . Štaviše, utvrđeno je da su brojne primjene vezane za grafove usko povezane s problemom heterofilije, npr. otkrivanje prevare/anomalija na grafovima, napadi i robusnost na grafovima, privatnost, federirano učenje i segmentacija oblaka tačaka, klasterovanje grafova, sistemi preporuka, generativni modeli, predviđanje veza, klasifikacija i bojenje grafova itd. U posljednjih nekoliko godina, značajan napor je uložen u proučavanje i rješavanje problema heterofilije u učenju grafova.[40][42][43]
Primjene
[uredi | uredi izvor]Savijanje proteina
[uredi | uredi izvor]Grafovske neuronske mreže su jedan od glavnih gradivnih blokova AlphaFolda, programa veštačke inteligencije koji je razvio Google-ov DeepMind za rješavanje problema savijanja proteina u biologiji . AlphaFold je osvojio prvo mjesto na nekoliko CASP takmičenja.[38][44][45]
Društvene mreže
[uredi | uredi izvor]Društvene mreže su glavna domena primjene GNN-ova zbog njihove prirodne reprezentacije kao društveni grafovai. GNN-ovi se koriste za razvoj sistema preporuka zasnovanih i na društvenim odnosima i na odnosima među elementima.[15][46]
Kombinatorna optimizacija
[uredi | uredi izvor]GNN-ovi se koriste kao osnovni gradivni blokovi za nekoliko kombinatornih optimizacijskih algoritama. Primjeri uključuju izračunavanje najkraćih puteva ili Eulerovih kola za dati graf,[37] izvođenje rasporeda čipova superiornijih ili konkurentnijih u odnosu na ručno izrađena ljudska rješenja,[47] i poboljšanje pravila grananja koje su dizajnirali stručnjaci u metodi grananja i ograničavanja.
Kibernetička sigurnost
[uredi | uredi izvor]Kada se posmatra kao graf, mreža računara može se analizirati pomoću GNN-ova radi otkrivanja anomalija. Anomalije unutar grafova porijekla često su u korelaciji sa zlonamjernim aktivnostima unutar mreže. GNN-ovi su korišteni za identifikaciju ovih anomalija na pojedinačnim čvorovima i unutar putanja radi otkrivanja zlonamjernih procesa ili na nivou grane[48] radi otkrivanja lateralnog kretanja .
Mreže za distribuciju vode
[uredi | uredi izvor]Sistemi distribucije vode mogu se modelirati kao grafovi, što je onda jednostavna primjena GNN-a. Ova vrsta algoritma primijenjena je za predviđanje potražnje za vodom,[49] međusobno povezujući područja okružnog mjerenja (DMA, District Metered Areas) radi poboljšanja kapaciteta predviđanja. Druga primjena ovog algoritma na modeliranje distribucije vode je razvoj metamodela.[50]
Računarski vid
[uredi | uredi izvor]Da bi se slika predstavila kao graf, slika se prvo dijeli na više dijelova, od kojih se svaki tretira kao čvor u grafu. Grane se zatim formiraju povezivanjem svakog čvora sa njegovim najbližim susjedima na osnovu prostorne sličnosti ili sličnosti karakteristika. Ova reprezentacija zasnovana na grafu omogućava primjenu modela učenja grafova na vizualne zadatke. Relaciona struktura pomaže u poboljšanju ekstrakcije karakteristika i poboljšanju performansi razumijevanja slike.
Tekst i NLP
[uredi | uredi izvor]Grafovski prikaz teksta pomaže u hvatanju dubljih semantičkih odnosa između riječi. Mnoge studije su koristile grafovske mreže za poboljšanje performansi u raznim zadacima obrade teksta kao što su klasifikacija teksta, odgovaranje na pitanja, prevođenje neuronskih mašina (NMT), izdvajanje događaja, provjera činjenica itd.[51]
Reference
[uredi | uredi izvor]- 1 2 3 4 Scarselli, Franco; Gori, Marco; Tsoi, Ah Chung; Hagenbuchner, Markus; Monfardini, Gabriele (2009). "Model Grafovske Neuronske Mreže".
- 1 2 3 Micheli, Alessio (2009). "Neuralna mreža za grafove: Kontekstualni konstruktivni pristup".
- ↑ Sanchez-Lengeling, Benjamin; Reif, Emily; Pearce, Adam; Wiltschko, Alex (2. 9. 2021). "A Gentle introduction to Graph Neural Networks".
- ↑ Daigavane, Ameya; Ravindran, Balaraman; Aggarwal, Gaurav (2. 9. 2021). "Understanding Convolutions on Graphs".
- ↑ Wu, Lingfei; Cui, Peng; Pei, Jian; Zhao, Liang (2022). "Graph Neural Networks: Foundations, Frontiers, and Applications".
- ↑ Stokes, Jonathan M.; Yang, Kevin; Swanson, Kyle; Jin, Wengong; Cubillos-Ruiz, Andres; Donghia, Nina M.; MacNair, Craig R; French, Shawn; Carfrae, Lindsey A. (20. 2. 2020). "A deep learning approach to antibiotic discovery".
- ↑ Yang, Kevin; Swanson, Kyle; Jin, Wengong; Coley, Connor; Eiden, Philipp; Gao, Hua; Guzman-Perez, Angel; Hopper, Timothy; Kelley, Brian (20. 11. 2019). "Analyzing Learned Molecular Representations for Property Prediction".
- ↑ Marchant, Jo (20. 2. 2020). "Powerful antibiotics discovered using AI".
- 1 2 Kipf, Thomas N.; Welling, Max (2016). "Inductive Representation Learning on Large Graphs" (PDF).
- 1 2 3 4 Veličković, Petar; Cucurull, Guillem; Casanova, Arantxa; Romero, Adriana; Liò, Pietro; Bengio, Yoshua (4. 2. 2018). "Graph Attention Networks".
- 1 2 3 4 5 6 Bronstein, Michael M.; Bruna, Joan; Cohen, Taco; Veličković, Petar (4. 5. 2021). "Geometric Deep Learning: Grids, Groups, Graphs Geodesics and Gauges".
- 1 2 Hajij, M.; Zamzmi, G.; Papamarkou, T.; Miolane, N.; Guzmán-Sáenz, A.; Ramamurthy, K. N.; Schaub, M. T. (2022). "Topological Deep Learning: Going Beyond Graph Data".
- 1 2 3 Veličković, Petar (2022). "Message passing all the way up".
- ↑ Wu, Lingfei; Chen, Yu; Shen, Kai; Guo, Xiaojie; Gao, Hanning; Li, Shucheng; Pei, Jian; Long, Bo (24. 1. 2023). "Graph Neural Networks for Natural Language Processing: A Survey". Foundations and Trends® in Machine Learning (jezik: English). 16 (2): 119–328. doi:10.1561/2200000096. ISSN 1935-8237.CS1 održavanje: nepoznati jezik (link)
- 1 2 Ying, Rex; He, Ruining; Chen, Kaifeng; Eksombatchai, Pong; Hamilton, William L.; Leskovec, Jure (19. 7. 2018). "Graph Convolutional Neural Networks for Web-Scale Recommender Systems". Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. KDD '18. New York, NY, USA: Association for Computing Machinery: 974–983. doi:10.1145/3219819.3219890. ISBN 978-1-4503-5552-0.
- ↑ "Stanford Large Network Dataset Collection". snap.stanford.edu. Pristupljeno 8. 12. 2025.
- ↑ Zhang, Weihang; Cui, Yang; Liu, Bowen; Loza, Martin; Park, Sung-Joon; Nakai, Kenta (27. 3. 2024). "HyGAnno: hybrid graph neural network-based cell type annotation for single-cell ATAC sequencing data". Briefings in Bioinformatics. 25 (3): bbae152. doi:10.1093/bib/bbae152. ISSN 1477-4054.
- ↑ Gilmer, Justin; Schoenholz, Samuel S.; Riley, Patrick F.; Vinyals, Oriol; Dahl, George E. (17. 7. 2017). "Neural Message Passing for Quantum Chemistry". Proceedings of the 34th International Conference on Machine Learning (jezik: engleski). PMLR: 1263–1272.
- ↑ Coley, Connor W.; Jin, Wengong; Rogers, Luke; Jamison, Timothy F.; Jaakkola, Tommi S.; Green, William H.; Barzilay, Regina; Jensen, Klavs F. (14. 1. 2019). "A graph-convolutional neural network model for the prediction of chemical reactivity". Chemical Science. 10 (2): 370–377. doi:10.1039/c8sc04228d. ISSN 2041-6520. PMC 6335848. PMID 30746086.
- ↑ Qasim, Shah Rukh; Kieseler, Jan; Iiyama, Yutaro; Pierini, Maurizio (18. 7. 2019). "Learning representations of irregular particle-detector geometry with distance-weighted graph networks". The European Physical Journal C (jezik: engleski). 79 (7): 608. doi:10.1140/epjc/s10052-019-7113-9. ISSN 1434-6052.
- ↑ Li, Tianyu; Li, Yun; Qiang, Jipeng; Yuan, Yun-Hao (2018). Cheng, Long; Leung, Andrew Chi Sing; Ozawa, Seiichi (ured.). "Text Simplification with Self-Attention-Based Pointer-Generator Networks". Neural Information Processing (jezik: engleski). Cham: Springer International Publishing: 537–545. doi:10.1007/978-3-030-04221-9_48. ISBN 978-3-030-04221-9.
- ↑ Matthias, Fey; Lenssen, Jan E. (2019). "Fast Graph Representation Learning with PyTorch Geometric".
- ↑ tensorflow/gnn, tensorflow, 3. 12. 2025, pristupljeno 8. 12. 2025 CS1 održavanje: nepreporučeni parametar (link)
- ↑ "Deep Graph Library". www.dgl.ai. Pristupljeno 8. 12. 2025.
- ↑ google-deepmind/jraph, Google DeepMind, 5. 12. 2025, pristupljeno 8. 12. 2025 CS1 održavanje: nepreporučeni parametar (link)
- ↑ JuliaGraphs/GraphNeuralNetworks.jl, JuliaGraphs, 3. 12. 2025, pristupljeno 8. 12. 2025 CS1 održavanje: nepreporučeni parametar (link)
- ↑ FluxML/GeometricFlux.jl, FluxML, 14. 11. 2025, pristupljeno 8. 12. 2025 CS1 održavanje: nepreporučeni parametar (link)
- ↑ Gao, Hongyang; JI, Shuiwang Ji (2019). "Graph U-Nets".
- ↑ Liu, Chuang; Zhan, Yibing; Li, Chang; Du, Bo; Wu, Jia; Hu, Wenbin; Liu, Tongliang; Tao, Dacheng (2022). "Graph Pooling for Graph Neural Networks: Progress, Challenges, and Opportunities".
- ↑ Douglas, B. L. (27. 1. 2011). "The Weisfeiler-Lehman Method and Graph Isomorphism Testing".
- ↑ Xu, Keyulu; Hu, Weihua; Leskovec, Jure; Jegelka, Stefanie (22. 2. 2019). "How Powerful are Graph Neural Networks?".
- ↑ Bodnar, Christian; Frasca, Fabrizio; Guang Wang, Yu; Otter, Nina; Montúfar, Guido; Liò, Pietro; Bronstein, Michael (2021). "Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks".
- ↑ Grady, Leo; Polimeni, Jonathan (2011). "Discrete Calculus: Applied Analysis on Graphs for Computational Science" (PDF).
- ↑ Chen, Deli; Lin, Yankai; Li, Wei; Li, Peng; Zhou, Jie; Sun, Xu (3. 4. 2020). "Measuring and Relieving the Over-Smoothing Problem for Graph Neural Networks from the Topological View". Proceedings of the AAAI Conference on Artificial Intelligence (jezik: engleski). 34 (04): 3438–3445. doi:10.1609/aaai.v34i04.5747. ISSN 2374-3468.
- 1 2 Alon, Uri; Yahav, Eran (2021). "On the Bottleneck of Graph Neural Networks and its Practical Implications".
- ↑ Xu, Keyulu; Zhang, Mozhi; Jegelka, Stephanie; Kawaguchi, Kenji (2021). "Optimization of Graph Neural Networks: Implicit Acceleration by Skip Connections and More Depth".
- 1 2 3 Li, Yujia; Tarlow, Daniel; Brockschmidt, Mark; Zemel, Richard (2016). "Gated Graph Sequence Neural Networks".
- 1 2 Xu, Keyulu; Li, Chengtao; Tian, Yonglong; Sonobe, Tomohiro; Kawarabayashi, Ken-ichi; Jegelka, Stefanie (2018). "Representation Learning on Graphs with Jumping Knowledge Networks".
- 1 2 3 Kipf, Thomas N.; Welling, Max (2016). "Semi-Supervised Classification with Graph Convolutional Networks".
- 1 2 Luan, Sitao; Hua, Chenqing; Lu, Qincheng; Ma, Liheng; Wu, Lirong; Wang, Xinyu; Xu, Minkai; Chang, Xiao-Wen; Precup, Doina (2024). "The Heterophilic Graph Learning Handbook: Benchmarks, Models, Theoretical Analysis, Applications and Challenges".
- ↑ Luan, Sitao; Hua, Chenqing; Lu, Qincheng; Zhu, Jiaqi; Chang, Xiao-Wen; Precup, Doina (2024). Cherifi, Hocine; Rocha, Luis M.; Cherifi, Chantal; Donduran, Murat (ured.). "When Do We Need Graph Neural Networks for Node Classification?". Complex Networks & Their Applications XII (jezik: engleski). Cham: Springer Nature Switzerland: 37–48. doi:10.1007/978-3-031-53468-3_4. ISBN 978-3-031-53468-3. no-break space character u
|title=na mjestu 42 (pomoć) - 1 2 Luan, Sitao; Hua, Chenqing; Lu, Qincheng; Zhu, Jiaqi; Zhao, Mingde; Zhang, Shuyuan; Chang, Xiao-Wen; Precup, Doina (6. 12. 2022). "Revisiting Heterophily For Graph Neural Networks". Advances in Neural Information Processing Systems (jezik: engleski). 35: 1362–1375.
- ↑ Luan, Sitao; Hua, Chenqing; Xu, Minkai; Lu, Qincheng; Zhu, Jiaqi; Chang, Xiao-Wen; Fu, Jie; Leskovec, Jure; Precup, Doina (15. 12. 2023). "When Do Graph Neural Networks Help with Node Classification? Investigating the Homophily Principle on Node Distinguishability". Advances in Neural Information Processing Systems (jezik: engleski). 36: 28748–28760.
- ↑ page, Will Douglas Heavenarchive. "DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology". MIT Technology Review (jezik: engleski). Pristupljeno 8. 12. 2025.
- ↑ Sample, Ian; editor, Ian Sample Science (2. 12. 2018). "Google's DeepMind predicts 3D shapes of proteins". The Guardian (jezik: engleski). ISSN 0261-3077. Pristupljeno 8. 12. 2025.CS1 održavanje: dodatni tekst: authors list (link)
- ↑ Fan, Wenqi; Ma, Yao; Li, Qing; He, Yuan; Zhao, Eric; Tang, Jiliang; Yin, Dawei (13. 5. 2019). "Graph Neural Networks for Social Recommendation". The World Wide Web Conference. WWW '19. New York, NY, USA: Association for Computing Machinery: 417–426. doi:10.1145/3308558.3313488. ISBN 978-1-4503-6674-8.
- ↑ Mirhoseini, Azalia; Goldie, Anna; Yazgan, Mustafa; Jiang, Joe Wenjie; Songhori, Ebrahim; Wang, Shen; Lee, Young-Joon; Johnson, Eric; Pathak, Omkar (6. 6. 2021). "A graph placement methodology for fast chip design". Nature (jezik: engleski). 594 (7862): 207–212. doi:10.1038/s41586-021-03544-w. ISSN 1476-4687.
- ↑ King, Isaiah J.; Huang, H. Howie (2022). "Euler: Detecting Network Lateral Movement via Scalable Temporal Graph Link Prediction" (PDF). Proceedings 2022 Network and Distributed System Security Symposium (jezik: engleski). doi:10.14722/ndss.2022.24107.
- ↑ Zanfei, Ariele; Brentan, Bruno M.; Menapace, Andrea; Righetti, Maurizio; Herrera, Manuel (2022). "Graph Convolutional Recurrent Neural Networks for Water Demand Forecasting". Water Resources Research (jezik: engleski). 58 (7): e2022WR032299. doi:10.1029/2022WR032299. ISSN 1944-7973.
- ↑ Zanfei, Ariele; Menapace, Andrea; Brentan, Bruno M.; Sitzenfrei, Robert; Herrera, Manuel (15. 8. 2023). "Shall we always use hydraulic models? A graph neural network metamodel for water system calibration and uncertainty assessment". Water Research. 242: 120264. doi:10.1016/j.watres.2023.120264. ISSN 1879-2448.
- ↑ Zhou, Jie; Cui, Ganqu; Hu, Shengding; Zhang, Zhengyan; Yang, Cheng; Liu, Zhiyuan; Wang, Lifeng; Li, Changcheng; Sun, Maosong (1. 1. 2020). "Graph neural networks: A review of methods and applications". AI Open. 1: 57–81. doi:10.1016/j.aiopen.2021.01.001. ISSN 2666-6510.
- Wu, Lingfei; Chen, Yu; Shen, Kai; Guo, Xiaojie; Gao, Hanning; Li, Shucheng; Pei, Jian; Long, Bo (2023). "Graph Neural Networks for Natural Language Processing: A Survey". Foundations and Trends in Machine Learning. 16 (2): 119–328. arXiv:2106.06090. doi:10.1561/2200000096. ISSN 1941-0093. PMID 19068426. S2CID 206756462.
- Wu, Lingfei; Cui, Peng; Pei, Jian; Zhao, Liang (2022). "Graph Neural Networks: Foundations, Frontiers, and Applications". Springer Singapore: 725.
- Scarselli, Franco; Gori, Marco; Tsoi, Ah Chung; Hagenbuchner, Markus; Monfardini, Gabriele (2009). "The Graph Neural Network Model". IEEE Transactions on Neural Networks. 20 (1): 61–80. Bibcode:2009ITNN...20...61S. doi:10.1109/TNN.2008.2005605. ISSN 1941-0093. PMID 19068426. S2CID 206756462.
- Micheli, Alessio (2009). "Neural Network for Graphs: A Contextual Constructive Approach". IEEE Transactions on Neural Networks. 20 (3): 498–511. Bibcode:2009ITNN...20..498M. doi:10.1109/TNN.2008.2010350. ISSN 1045-9227. PMID 19193509. S2CID 17486263.
- Sanchez-Lengeling, Benjamin; Reif, Emily; Pearce, Adam; Wiltschko, Alex (2. 9. 2021). "A Gentle Introduction to Graph Neural Networks". Distill. 6 (9). doi:10.23915/distill.00033. ISSN 2476-0757. Nepoznati parametar
|article-number=zanemaren (pomoć) - Daigavane, Ameya; Ravindran, Balaraman; Aggarwal, Gaurav (2. 9. 2021). "Understanding Convolutions on Graphs". Distill. 6 (9). doi:10.23915/distill.00032. ISSN 2476-0757. S2CID 239678898 Provjerite vrijednost parametra
|s2cid=(pomoć). Nepoznati parametar|article-number=zanemaren (pomoć) - Gilmer, Justin; Schoenholz, Samuel S.; Riley, Patrick F.; Vinyals, Oriol; Dahl, George E. (17. 7. 2017). "Neural Message Passing for Quantum Chemistry". Proceedings of Machine Learning Research (jezik: engleski): 1263–1272. arXiv:1704.01212.
- Kipf, Thomas N; Welling, Max (2016). "Semi-supervised classification with graph convolutional networks". IEEE Transactions on Neural Networks. 5 (1): 61–80. arXiv:1609.02907. Bibcode:2009ITNN...20...61S. doi:10.1109/TNN.2008.2005605. PMID 19068426. S2CID 206756462.
- Hamilton, William; Ying, Rex; Leskovec, Jure (2017). "Inductive Representation Learning on Large Graphs" (PDF). Neural Information Processing Systems. 31. arXiv:1706.02216 – preko Stanford.
- Veličković, Petar; Cucurull, Guillem; Casanova, Arantxa; Romero, Adriana; Liò, Pietro; Bengio, Yoshua (4. 2. 2018). "Graph Attention Networks". arXiv:1710.10903 [stat.ML].
- "Stanford Large Network Dataset Collection". snap.stanford.edu. Pristupljeno 5. 7. 2021.
- Li, Zhuwen; Chen, Qifeng; Koltun, Vladlen (2018). "Text Simplification with Self-Attention-Based Pointer-Generator Networks". Neural Information Processing. Lecture Notes in Computer Science. 31. str. 537–546. arXiv:1810.10659. doi:10.1007/978-3-030-04221-9_48. ISBN 978-3-030-04220-2.
- Bronstein, Michael M.; Bruna, Joan; Cohen, Taco; Veličković, Petar (4. 5. 2021). "Geometric Deep Learning: Grids, Groups, Graphs Geodesics and Gauges". arXiv:2104.13478 [cs.LG].
- Douglas, B. L. (27. 1. 2011). "The Weisfeiler–Lehman Method and Graph Isomorphism Testing". arXiv:1101.5211 [math.CO].
- Xu, Keyulu; Hu, Weihua; Leskovec, Jure; Jegelka, Stefanie (22. 2. 2019). "How Powerful are Graph Neural Networks?". arXiv:1810.00826 [cs.LG].
- Veličković, Petar (2022). "Message passing all the way up". arXiv:2202.11097 [cs.LG].
- Qasim, Shah Rukh; Kieseler, Jan; Iiyama, Yutaro; Pierini, Maurizio Pierini (2019). "Learning representations of irregular particle-detector geometry with distance-weighted graph networks". The European Physical Journal C. 79 (7): 608. arXiv:1902.07987. Bibcode:2019EPJC...79..608Q. doi:10.1140/epjc/s10052-019-7113-9. S2CID 88518244.
- Liu, Chuang; Zhan, Yibing; Li, Chang; Du, Bo; Wu, Jia; Hu, Wenbin; Liu, Tongliang; Tao, Dacheng (2022). "Graph Pooling for Graph Neural Networks: Progress, Challenges, and Opportunities". arXiv:2204.07321 [cs.LG].
- Hajij, M.; Zamzmi, G.; Papamarkou, T.; Miolane, N.; Guzmán-Sáenz, A.; Ramamurthy, K. N.; Schaub, M. T. (2022). "Topological deep learning: Going beyond graph data". arXiv:2206.00606 [cs.LG].
- Bodnar, Christian; Frasca, Fabrizio; Guang Wang, Yu; Otter, Nina; Montúfar, Guido; Liò, Pietro; Bronstein, Michael (2021). "Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks". arXiv:2103.03212 [cs.LG].
- Gao, Hongyang; Ji, Shuiwang Ji (2019). "Graph U-Nets". arXiv:1905.05178 [cs.LG].
- Lee, Junhyun; Lee, Inyeop; Kang, Jaewoo (2019). "Self-Attention Graph Pooling". arXiv:1904.08082 [cs.LG].
- Alon, Uri; Yahav, Eran (2021). "On the Bottleneck of Graph Neural Networks and its Practical Implications". arXiv:2006.05205 [cs.LG].
- Chen, Deli; Lin, Yankai; Li, Wei; Li, Peng; Zhou, Jie; Sun, Xu (2020). "Measuring and Relieving the Over-Smoothing Problem for Graph Neural Networks from the Topological View". Proceedings of the AAAI Conference on Artificial Intelligence. 34 (4): 3438–3445. arXiv:1909.03211. doi:10.1609/aaai.v34i04.5747. S2CID 202539008.
- Sample, Ian (2. 12. 2018). "Google's DeepMind predicts 3D shapes of proteins". The Guardian. Pristupljeno 30. 11. 2020.
- "DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology". MIT Technology Review (jezik: engleski). Pristupljeno 30. 11. 2020.
- Fan, Wenqi; Ma, Yao; Li, Qing; He, Yuan; Zhao, Eric; Tang, Jiliang; Yin, Dawei (2019). Graph Neural Networks for Social Recommendation. str. 417–426. arXiv:1902.07243. doi:10.1145/3308558.3313488. hdl:10397/81232. ISBN 978-1-4503-6674-8. S2CID 67769538.
- Ying, Rex; He, Ruining; Chen, Kaifeng; Eksombatchai, Pong; Hamilton, William L.; Leskovec, Jure (2018). Graph Convolutional Neural Networks for Web-Scale Recommender Systems. str. 974–983. arXiv:1806.01973. doi:10.1145/3219819.3219890. ISBN 978-1-4503-5552-0. S2CID 46949657.
- Gasse, Maxime; Chételat, Didier; Ferroni, Nicola; Charlin, Laurent; Lodi, Andrea (2019). "Exact Combinatorial Optimization with Graph Convolutional Neural Networks". arXiv:1906.01629 [cs.LG].
- Cappart, Quentin; Chételat, Didier; Khalil, Elias; Lodi, Andrea; Morris, Christopher; Veličković, Petar (2021). "Combinatorial optimization and reasoning with graph neural networks". arXiv:2102.09544 [cs.LG].
- Mirhoseini, Azalia; Goldie, Anna; Yazgan, Mustafa; Jiang, Joe Wenjie; Songhori, Ebrahim; Wang, Shen; Lee, Young-Joon; Johnson, Eric; Pathak, Omkar; Nazi, Azade; Pak, Jiwoo; Tong, Andy; Srinivasa, Kavya; Hang, William; Tuncer, Emre; Le, Quoc V.; Laudon, James; Ho, Richard; Carpenter, Roger; Dean, Jeff (2021). "A graph placement methodology for fast chip design". Nature. 594 (7862): 207–212. Bibcode:2021Natur.594..207M. doi:10.1038/s41586-021-03544-w. PMID 34108699 Provjerite vrijednost parametra
|pmid=(pomoć). S2CID 235395490 Provjerite vrijednost parametra|s2cid=(pomoć). - Matthias, Fey; Lenssen, Jan E. (2019). "Fast Graph Representation Learning with PyTorch Geometric". arXiv:1903.02428 [cs.LG].
- "Tensorflow GNN". GitHub. Pristupljeno 30. 6. 2022.
- "jraph". GitHub. Pristupljeno 30. 6. 2022.
- Xu, Keyulu; Zhang, Mozhi; Jegelka, Stephanie; Kawaguchi, Kenji (2021). "Optimization of Graph Neural Networks: Implicit Acceleration by Skip Connections and More Depth". arXiv:2105.04550 [cs.LG].
- Li, Yujia; Tarlow, Daniel; Brockschmidt, Mark; Zemel, Richard (2016). "Gated Graph Sequence Neural Networks". arXiv:1511.05493 [cs.LG].
- Grady, Leo; Polimeni, Jonathan (2011). Discrete Calculus: Applied Analysis on Graphs for Computational Science (PDF). Springer.
- Xu, Keyulu; Li, Chengtao; Tian, Yonglong; Sonobe, Tomohiro; Kawarabayashi, Ken-ichi; Jegelka, Stefanie (2018). "Representation Learning on Graphs with Jumping Knowledge Networks". arXiv:1806.03536 [cs.LG].
- Lucibello, Carlo (2021). "GraphNeuralNetworks.jl". GitHub. Pristupljeno 21. 9. 2023.