Sieci neuronowe na grafach (Graph Neural Networks, GNN) to jedne z najciekawszych narzędzi we współczesnej sztucznej inteligencji. Potrafią analizować dane zapisane w formie węzłów i połączeń – np. sieci społecznościowe, powiązania finansowe, struktury białek czy sieci transportowe.
Ale wraz z sukcesem pojawia się ryzyko: GNN można atakować. Nowa praca naukowa wprowadza JANUS – framework ataku, który uczy się wstrzykiwać fałszywe węzły do grafu w sposób niezwykle trudny do wykrycia. Choć to badania nad bezpieczeństwem, ich wnioski są ważne także dla obrony przed podobnymi zagrożeniami.
Krótki przykład
Wyobraź sobie sieć społecznościową, w której GNN ocenia, czy konto jest prawdziwe czy bot. Jeśli ktoś stworzy „fałszywego znajomego” (czyli węzeł z cechami podobnymi do innych ludzi i odpowiednimi połączeniami), to system może go uznać za normalny element sieci. Takie „wstrzyknięcie węzła” to podstęp – wygląda niewinnie, a jednak może zmienić wyniki klasyfikacji całej sieci.
Tradycyjne ataki były często wykrywalne, bo fałszywe węzły miały podejrzane cechy lub dziwne połączenia. JANUS działa sprytniej:
- Na poziomie lokalnym – upewnia się, że fałszywe konto wygląda jak prawdziwe konto w danej okolicy sieci.
- Na poziomie globalnym – sprawia, że cała struktura sieci z tymi fałszywymi węzłami nadal przypomina prawdziwy świat.
To trochę jak fałszerz pieniędzy: nie wystarczy, że banknot wygląda dobrze z bliska. Musi też pasować do całego obiegu, inaczej szybko zostanie wykryty.
Przykład praktyczny:
- W sieci finansowej atak może sprawić, że podejrzane transakcje będą wyglądały na legalne.
- W bioinformatyce – sztucznie dodany gen w grafie zależności może zmylić model w badaniach medycznych.
Tło matematyczne
Graf zapisujemy jako:
$$ G = (V, E, X), $$
gdzie $V$ to zbiór węzłów, $E$ – krawędzie, a $X \in \mathbb{R}^{|V|\times d}$ – macierz cech węzłów.
Atak typu node injection polega na dodaniu nowego węzła $v_{\text{inj}}$ i zestawu krawędzi, tak by zmaksymalizować funkcję straty modelu GNN, przy ograniczonym budżecie ataku.
Celem JANUS jest maksymalizacja liczby błędnie sklasyfikowanych węzłów:
$$ \max \sum_{v \in T} \mathbb{I}(f_\theta(v, G’) \neq y_v), $$
gdzie $T \subset V$ to zbiór węzłów ofiary, $f_\theta$ – model GNN, a $G’$ to graf po ataku.
Dwa poziomy „niewidzialności”
Lokalna autentyczność cech
Użyto teorii Optymalnego Transportu (OT). Mierzymy koszt „przeniesienia” rozkładu cech nowego węzła na rozkład cech prawdziwych sąsiadów.Strata lokalna:
$$ L_{\text{OT}}(x_{\text{inj}}, X_{\text{orig}}) = W_2^2 \big(P_{\text{inj}}, P_{\text{orig}} \big), $$
gdzie $W_2$ to odległość Wassersteina, a w praktyce liczymy ją algorytmem Sinkhorna.
Globalna spójność semantyczna
Zastosowano podejście inspirowane InfoGAN – generator korzysta z ukrytych kodów $c$, które wymuszają tworzenie struktur zgodnych z ukrytymi wzorcami grafu.Strata globalna:
$$ L_{\text{info}} = - \mathbb{E}_{c,z} \big[ \log Q(c|g) \big], $$
gdzie $Q$ próbuje odtworzyć kod $c$ z wygenerowanego podgrafu $g$.
Optymalizacja przez Reinforcement Learning
JANUS modeluje atak jako proces decyzyjny Markowa (MDP). Generator (aktor) decyduje, jakie cechy i krawędzie dodać. Krytyk ocenia wartość stanu.
Strata generatora (aktor):
$$ L_G = L_{\text{policy}} + L_{\text{adv}} + L_{\text{info}} + \lambda L_{\text{OT}}, $$
gdzie $\lambda$ równoważy skuteczność ataku i lokalną autentyczność.
Podsumowanie
Praca o JANUS pokazuje, że ataki na GNN mogą być niezwykle trudne do wykrycia, jeśli są dobrze zaprojektowane. Wprowadzenie podwójnego mechanizmu ukrywania (lokalnego i globalnego) sprawia, że fałszywe węzły wyglądają jak naturalna część grafu.
Z punktu widzenia bezpieczeństwa:
To ostrzeżenie, że obrona przed atakami musi brać pod uwagę zarówno lokalne cechy, jak i globalne wzorce.
Zastosowania obronne mogą dotyczyć sieci finansowych, bezpieczeństwa w social media czy systemów bioinformatycznych.
Z punktu widzenia badaczy:
JANUS łączy Generative Adversarial Networks (GAN), Optymalny Transport, InfoGAN i Reinforcement Learning w jednym frameworku.
To krok w stronę bardziej „świadomego” modelowania zarówno ataków, jak i obrony w GNN.
📎 Linki
- Na podstawie publikacji 📄 2509.13266