Bezpieczne uczenie struktury grafów: różnicowa prywatność w otwartych danych grafowych

W erze danych grafowych – takich jak sieci społecznościowe, grafy powiązań biznesowych czy mapy wiedzy – coraz częściej pojawia się potrzeba ich publikacji w celach badawczych lub inżynierskich. Ale co jeśli struktura takiego grafu sama w sobie zawiera dane wrażliwe? Nawet bez ujawniania treści, sam fakt istnienia krawędzi (np. relacji między użytkownikami) może prowadzić do naruszenia prywatności. Tradycyjne podejścia do różnicowej prywatności (DP, ang. Differential Privacy) koncentrują się na ochronie danych podczas uczenia modeli. W tej publikacji autorzy idą o krok dalej — chronią prywatność podczas publikacji danych grafowych. Proponują eleganckie podejście oparte na Gaussian Differential Privacy (GDP), które pozwala na uczenie struktury grafu w sposób zapewniający gwarancje prywatności. ...

lipca 28, 2025

Optymalizacja pracy call center za pomocą uczenia ze wzmocnieniem: PPO kontra Value Iteration

Czy można usprawnić pracę call center za pomocą sztucznej inteligencji? Artykuł „Optimising Call Centre Operations using Reinforcement Learning: Value Iteration versus Proximal Policy Optimisation” autorstwa Kwong Ho Li i Wathsala Karunarathne pokazuje, że tak — i to z dużym sukcesem. Autorzy badają dwa podejścia do uczenia ze wzmocnieniem (RL) w kontekście optymalizacji procesu kierowania połączeń: klasyczne Value Iteration (VI) i nowoczesne Proximal Policy Optimisation (PPO). Czym jest uczenie ze wzmocnieniem? Uczenie ze wzmocnieniem to dziedzina AI, w której agent podejmuje decyzje w środowisku, otrzymując nagrody za dobre działania. Celem jest maksymalizacja sumy nagród — w praktyce: optymalizacja decyzji. ...

lipca 26, 2025

Efektywna i geometrycznie inteligentna: Liniowa pamięć i uwaga inwariantna SE(2)

W wielu codziennych sytuacjach—jak przewidywanie trajektorii samochodów na zatłoczonym skrzyżowaniu, koordynacja floty robotów dostawczych, czy symulacja ruchu pieszych—ważne jest nie tylko gdzie się coś znajduje, ale także jak jest obrócone lub skierowane. Tę informację opisuje geometria SE(2): pozycja w 2D oraz kierunek (heading). Tradycyjne modele typu Transformer, które uwzględniają inwariancję względem translacji i rotacji (SE(2)), muszą porównywać pozycję i orientację każdej pary obiektów. Dla $n$ obiektów daje to złożoność pamięciową $O(n^2)$ – co staje się niepraktyczne przy dużej liczbie agentów. ...

lipca 25, 2025

Lekki silnik AI do wykrywania raka skóry w urządzeniach ubieralnych

Rak skóry to jeden z najczęściej występujących nowotworów – wczesne wykrycie znacznie poprawia rokowania. Niestety, wiele osób nie ma dostępu do dermatologa ani zaawansowanych narzędzi diagnostycznych. Ta praca rozwiązuje ten problem, przenosząc AI do tanich urządzeń ubieralnych. Co zrobili autorzy? Wykorzystali MobileNetV2: To mała sieć neuronowa zoptymalizowana pod urządzenia mobilne. Dzięki transfer learning nauczono ją rozróżniać zmiany skórne: rak skóry vs inne. Zmniejszyli i zoptymalizowali model: Za pomocą NVIDIA TensorRT skompresowano MobileNetV2 dla platformy Jetson Orin Nano – zmniejszono rozmiar modelu do ~41% oryginału, przyspieszono działanie i znacznie zredukowano zużycie energii, szczególnie w precyzji INT8 (spadek nawet o 93%). ...

lipca 24, 2025

SOPHIA: wzmacnianie wolnomyślenia w dużych modelach wizualno‑językowych

W ostatnich latach duże modele wizualno‑językowe (Large Vision‑Language Models, LVLM) potrafią łączyć rozumienie obrazów i tekstu, ale mają trudności z długimi, wieloetapowymi wnioskowaniami. Artykuł „SOPHIA: Semi‑Off‑Policy Reinforcement Learning for Slow‑Thinking in LVLMs” przedstawia nową metodę, która znacząco poprawia ich zdolność do tzw. wolnomyślenia (slow‑thinking reasoning). Czym jest wolnomyślenie? Wolnomyślenie to długi, przejrzysty proces rozumowania, w którym model krok po kroku analizuje każdy fragment problemu. W przeciwieństwie do szybkich, intuicyjnych podpowiedzi, slow‑thinking: ...

lipca 23, 2025

Rola AI w zarządzaniu konstelacjami satelitarnymi

Mega-konstelacje satelitów—setki lub tysiące małych satelitów współpracujących w sieć—rewolucjonizują globalną łączność. Jednak zarządzanie takimi systemami to wyzwanie: ruchome węzły, ograniczona moc obliczeniowa oraz potrzeba minimalizacji opóźnień. Projekt ConstellAI, wspierany przez Europejską Agencję Kosmiczną, bada zastosowanie sztucznej inteligencji (AI) do: Trasowania danych: wybierania najszybszej i najbardziej niezawodnej trasy przesyłu. Przydziału zasobów: dynamicznego rozdziału pasma, mocy nadawczej i slotów czasowych. Trasowanie danych za pomocą uczenia ze wzmocnieniem Klasyczne algorytmy trasowania (np. najkrótsza ścieżka) nie uwzględniają przeciążeń (kolejek) w węzłach. ConstellAI wykorzystuje uczenie ze wzmocnieniem, gdzie agent uczy się na podstawie doświadczeń: testuje różne trasy, obserwuje opóźnienia i stopniowo znajduje najlepsze drogi. ...

lipca 22, 2025

O fundamentalnych ograniczeniach dwuetapowych dekompozycji CVaR w procesach decyzyjnych Markowa

W codziennych decyzjach – od inwestycji finansowych po planowanie tras autonomicznego pojazdu –nie liczy się tylko średni wynik, lecz także kwestia ryzyka. Jedną z popularnych miar ryzyka jest Conditional Value at Risk, czyli CVaR, definiowane (dla poziomu ufności $\alpha\in(0,1)$) jako: $$ CVaR_\alpha(X) =\inf_{\xi}{\xi + \tfrac{1}{1-\alpha},E[(X-\xi)_+]}. $$ W pracy Godbout i Durand (2025) autorzy przyglądają się, jak tę miarę ryzyka efektywnie oszacować w modelach decyzyjnych nazywanych Procesami Decyzyjnymi Markowa (MDP). Ich wnioski pokazują, że najbardziej rozpowszechnione podejście – dekompozycja dualna – ma fundamentalne ograniczenia. ...

lipca 21, 2025

PinFM: Foundation Model dla sekwencji aktywności użytkowników na platformie odkrywania wizualnego na skalę miliardową

W artykule “PinFM: Foundation Model for User Activity Sequences at a Billion‑scale Visual Discovery Platform” autorzy przedstawiają $>$20mld‑parametrowy transformator trenowany na sekwencjach działań użytkowników platformy Pinterest. Celem jest stworzenie uniwersalnego modelu sekwencji, który może zostać wykorzystany w różnych zadaniach rekomendacyjnych, takich jak ranking treści, podobne piny czy personalizowane kanały. Kontekst i motywacja Systemy rekomendacyjne w serwisach społecznościowych tradycyjnie opierają się na modelach specjalizowanych do konkretnych zadań. Rosnąca liczba danych i różnorodność sygnałów użytkownika wymaga jednak podejścia uogólnionego, opartego na pre‑trainingu i fine‑tuningu. PinFM powstał, aby: ...

lipca 20, 2025

GradNetOT: Uczenie optymalnych map transportu za pomocą GradNets

Optymalny transport (OT) to matematyczny problem przekształcenia jednej „masy” (np. piasku) w inną przy minimalnym koszcie. GradNetOT to nowatorska metoda uczenia maszynowego, która uczy takie optymalne mapy za pomocą sieci neuronowych z wbudowanym „uprzedzeniem” fizycznym. Czym jest optymalny transport? Klasyczna definicja: Mając dwie dystrybucje prawdopodobieństwa (zasoby i cele), znajdź sposób przesunięcia masy z minimalnym kosztem. Twierdzenie Monge’a: Przy koszcie opartym na kwadracie odległości optymalna mapa to gradient funkcji wypukłej spełniającej równanie Monge–Ampère. Podejście GradNetOT GradNetOT wykorzystuje specjalną architekturę zwaną Monotone Gradient Network (mGradNet), która reprezentuje funkcje wypukłe w sposób gwarantujący spójność: ...

lipca 19, 2025

Niestabilna Moc: Jak Sharpness Napędza Uczenie Głębokich Sieci

Artykuł „Understanding the Evolution of the Neural Tangent Kernel at the Edge of Stability” autorstwa Kaiqi Jianga, Jeremy’ego Cohena i Yuanzhi Liego bada, jak podczas treningu głębokich sieci neuronowych zmienia się tzw. jądro tangenta nerwowego ($\mathrm{NTK}$), zwłaszcza w fazie zwanej krawędzią stabilności (Edge of Stability, EoS). Co to jest NTK? $\mathrm{NTK}$ to macierz opisująca, jak mała zmiana wag w sieci wpływa na wyjścia dla poszczególnych przykładów treningowych. Pozwala traktować sieć neuronową jak metodę jądrową, co ułatwia analizę teoretyczną uczenia głębokiego. Co to jest Edge of Stability? Przy dużej stawce uczenia $\eta$ największa wartość własna $\mathrm{NTK}$ (lub hesjanu funkcji straty) przekracza próg stabilności $2/\eta$, a następnie oscyluje wokół tej granicy. To zjawisko nosi nazwę Edge of Stability – łączy niestabilność z efektywnymi fazami nauki. Główne odkrycia Shift wyrównania (Alignment Shift) Przy wyższej stawce $\eta$ jądro końcowe staje się silniej wyrównane z wektorem etykiet $y$. Mierzone jest to miarą Kernel Target Alignment (KTA). ...

lipca 18, 2025