Lekki silnik AI do wykrywania raka skóry w urządzeniach ubieralnych

Rak skóry to jeden z najczęściej występujących nowotworów – wczesne wykrycie znacznie poprawia rokowania. Niestety, wiele osób nie ma dostępu do dermatologa ani zaawansowanych narzędzi diagnostycznych. Ta praca rozwiązuje ten problem, przenosząc AI do tanich urządzeń ubieralnych. Co zrobili autorzy? Wykorzystali MobileNetV2: To mała sieć neuronowa zoptymalizowana pod urządzenia mobilne. Dzięki transfer learning nauczono ją rozróżniać zmiany skórne: rak skóry vs inne. Zmniejszyli i zoptymalizowali model: Za pomocą NVIDIA TensorRT skompresowano MobileNetV2 dla platformy Jetson Orin Nano – zmniejszono rozmiar modelu do ~41% oryginału, przyspieszono działanie i znacznie zredukowano zużycie energii, szczególnie w precyzji INT8 (spadek nawet o 93%). ...

lipca 24, 2025

SOPHIA: wzmacnianie wolnomyślenia w dużych modelach wizualno‑językowych

W ostatnich latach duże modele wizualno‑językowe (Large Vision‑Language Models, LVLM) potrafią łączyć rozumienie obrazów i tekstu, ale mają trudności z długimi, wieloetapowymi wnioskowaniami. Artykuł „SOPHIA: Semi‑Off‑Policy Reinforcement Learning for Slow‑Thinking in LVLMs” przedstawia nową metodę, która znacząco poprawia ich zdolność do tzw. wolnomyślenia (slow‑thinking reasoning). Czym jest wolnomyślenie? Wolnomyślenie to długi, przejrzysty proces rozumowania, w którym model krok po kroku analizuje każdy fragment problemu. W przeciwieństwie do szybkich, intuicyjnych podpowiedzi, slow‑thinking: ...

lipca 23, 2025

Rola AI w zarządzaniu konstelacjami satelitarnymi

Mega-konstelacje satelitów—setki lub tysiące małych satelitów współpracujących w sieć—rewolucjonizują globalną łączność. Jednak zarządzanie takimi systemami to wyzwanie: ruchome węzły, ograniczona moc obliczeniowa oraz potrzeba minimalizacji opóźnień. Projekt ConstellAI, wspierany przez Europejską Agencję Kosmiczną, bada zastosowanie sztucznej inteligencji (AI) do: Trasowania danych: wybierania najszybszej i najbardziej niezawodnej trasy przesyłu. Przydziału zasobów: dynamicznego rozdziału pasma, mocy nadawczej i slotów czasowych. Trasowanie danych za pomocą uczenia ze wzmocnieniem Klasyczne algorytmy trasowania (np. najkrótsza ścieżka) nie uwzględniają przeciążeń (kolejek) w węzłach. ConstellAI wykorzystuje uczenie ze wzmocnieniem, gdzie agent uczy się na podstawie doświadczeń: testuje różne trasy, obserwuje opóźnienia i stopniowo znajduje najlepsze drogi. ...

lipca 22, 2025

O fundamentalnych ograniczeniach dwuetapowych dekompozycji CVaR w procesach decyzyjnych Markowa

W codziennych decyzjach – od inwestycji finansowych po planowanie tras autonomicznego pojazdu –nie liczy się tylko średni wynik, lecz także kwestia ryzyka. Jedną z popularnych miar ryzyka jest Conditional Value at Risk, czyli CVaR, definiowane (dla poziomu ufności $\alpha\in(0,1)$) jako: $$ CVaR_\alpha(X) =\inf_{\xi}{\xi + \tfrac{1}{1-\alpha},E[(X-\xi)_+]}. $$ W pracy Godbout i Durand (2025) autorzy przyglądają się, jak tę miarę ryzyka efektywnie oszacować w modelach decyzyjnych nazywanych Procesami Decyzyjnymi Markowa (MDP). Ich wnioski pokazują, że najbardziej rozpowszechnione podejście – dekompozycja dualna – ma fundamentalne ograniczenia. ...

lipca 21, 2025

PinFM: Foundation Model dla sekwencji aktywności użytkowników na platformie odkrywania wizualnego na skalę miliardową

W artykule “PinFM: Foundation Model for User Activity Sequences at a Billion‑scale Visual Discovery Platform” autorzy przedstawiają $>$20mld‑parametrowy transformator trenowany na sekwencjach działań użytkowników platformy Pinterest. Celem jest stworzenie uniwersalnego modelu sekwencji, który może zostać wykorzystany w różnych zadaniach rekomendacyjnych, takich jak ranking treści, podobne piny czy personalizowane kanały. Kontekst i motywacja Systemy rekomendacyjne w serwisach społecznościowych tradycyjnie opierają się na modelach specjalizowanych do konkretnych zadań. Rosnąca liczba danych i różnorodność sygnałów użytkownika wymaga jednak podejścia uogólnionego, opartego na pre‑trainingu i fine‑tuningu. PinFM powstał, aby: ...

lipca 20, 2025

GradNetOT: Uczenie optymalnych map transportu za pomocą GradNets

Optymalny transport (OT) to matematyczny problem przekształcenia jednej „masy” (np. piasku) w inną przy minimalnym koszcie. GradNetOT to nowatorska metoda uczenia maszynowego, która uczy takie optymalne mapy za pomocą sieci neuronowych z wbudowanym „uprzedzeniem” fizycznym. Czym jest optymalny transport? Klasyczna definicja: Mając dwie dystrybucje prawdopodobieństwa (zasoby i cele), znajdź sposób przesunięcia masy z minimalnym kosztem. Twierdzenie Monge’a: Przy koszcie opartym na kwadracie odległości optymalna mapa to gradient funkcji wypukłej spełniającej równanie Monge–Ampère. Podejście GradNetOT GradNetOT wykorzystuje specjalną architekturę zwaną Monotone Gradient Network (mGradNet), która reprezentuje funkcje wypukłe w sposób gwarantujący spójność: ...

lipca 19, 2025

Niestabilna Moc: Jak Sharpness Napędza Uczenie Głębokich Sieci

Artykuł „Understanding the Evolution of the Neural Tangent Kernel at the Edge of Stability” autorstwa Kaiqi Jianga, Jeremy’ego Cohena i Yuanzhi Liego bada, jak podczas treningu głębokich sieci neuronowych zmienia się tzw. jądro tangenta nerwowego ($\mathrm{NTK}$), zwłaszcza w fazie zwanej krawędzią stabilności (Edge of Stability, EoS). Co to jest NTK? $\mathrm{NTK}$ to macierz opisująca, jak mała zmiana wag w sieci wpływa na wyjścia dla poszczególnych przykładów treningowych. Pozwala traktować sieć neuronową jak metodę jądrową, co ułatwia analizę teoretyczną uczenia głębokiego. Co to jest Edge of Stability? Przy dużej stawce uczenia $\eta$ największa wartość własna $\mathrm{NTK}$ (lub hesjanu funkcji straty) przekracza próg stabilności $2/\eta$, a następnie oscyluje wokół tej granicy. To zjawisko nosi nazwę Edge of Stability – łączy niestabilność z efektywnymi fazami nauki. Główne odkrycia Shift wyrównania (Alignment Shift) Przy wyższej stawce $\eta$ jądro końcowe staje się silniej wyrównane z wektorem etykiet $y$. Mierzone jest to miarą Kernel Target Alignment (KTA). ...

lipca 18, 2025

RiemannLoRA: Zunifikowane ramy Riemanna dla bezdyskusyjnej optymalizacji LoRA

W ostatnich latach Low‑Rank Adaptation (LoRA) stało się kluczową techniką efektywnego parametrycznie dostrajania dużych modeli językowych (LLM) oraz modeli dyfuzyjnych. Dzięki wprowadzeniu macierzy o niskim rzędzie, LoRA znacznie redukuje zapotrzebowanie na pamięć i moc obliczeniową. Jednak w praktyce napotykamy dwa główne problemy: Niejednoznaczna inicjalizacja: Różne pary macierzy ($A, B$) mogą dawać ten sam przyrost wagi $\Delta W = A,B^\top$, co prowadzi do niestabilnych startów. Redundancja parametrów: Bez kanonicznej reprezentacji gradienty mogą krążyć wśród równoważnych faktoryzacji. RiemannLoRA prezentuje geometryczną metodę, która usuwa te niejasności i przyspiesza oraz stabilizuje fine‑tuning. ...

lipca 17, 2025

Model sieci neuronowej oparty na Complementary Learning Systems: separacja i uzupełnianie wzorców w uczeniu ciągłym

Standardowe sieci neuronowe, ucząc się nowych zadań, często zapominają wcześniejsze informacje – zjawisko zwane katastroficznym zapominaniem. W przeciwieństwie do nich, ludzki mózg zachowuje zdolność do integracji nowych i starych wspomnień dzięki działaniu dwóch komplementarnych systemów pamięci: hipokampa i kory mózgowej. 1. Cele publikacji Autorzy dążą do skonstruowania modelu łączącego: Pattern separation: wyraźne rozróżnianie podobnych wspomnień, Pattern completion: odtwarzanie pełnych reprezentacji z fragmentarycznych danych, aby umożliwić ciągłe uczenie bez utraty zdobytych umiejętności. ...

lipca 16, 2025

Target Polish: Jak „polerować” dane i wydobywać z nich prawdę

Wyobraź sobie, że analizujesz dane z czujników. Nagle jeden z nich pokazuje -999°C. To tzw. outlier — odstający punkt, który potrafi całkowicie zafałszować analizę. 🧩 Czym jest faktoryzacja? Faktoryzacja macierzy to technika pozwalająca rozłożyć dane $X$ na dwa nieujemne składniki: $$ X \approx WH $$ Gdzie $W$ zawiera „cechy”, a $H$ mówi ile której cechy potrzeba. 💡 Problem Standardowe metody, takie jak NMF (Non-negative Matrix Factorization), są wrażliwe na błędy i wartości odstające. Gdy dane są „brudne”, analiza bywa bezużyteczna. ...

lipca 15, 2025