Bezpieczne uczenie struktury grafów: różnicowa prywatność w otwartych danych grafowych

W erze danych grafowych – takich jak sieci społecznościowe, grafy powiązań biznesowych czy mapy wiedzy – coraz częściej pojawia się potrzeba ich publikacji w celach badawczych lub inżynierskich. Ale co jeśli struktura takiego grafu sama w sobie zawiera dane wrażliwe? Nawet bez ujawniania treści, sam fakt istnienia krawędzi (np. relacji między użytkownikami) może prowadzić do naruszenia prywatności. Tradycyjne podejścia do różnicowej prywatności (DP, ang. Differential Privacy) koncentrują się na ochronie danych podczas uczenia modeli. W tej publikacji autorzy idą o krok dalej — chronią prywatność podczas publikacji danych grafowych. Proponują eleganckie podejście oparte na Gaussian Differential Privacy (GDP), które pozwala na uczenie struktury grafu w sposób zapewniający gwarancje prywatności. ...

lipca 28, 2025