Optymalny transport (OT) to matematyczny problem przekształcenia jednej „masy” (np. piasku) w inną przy minimalnym koszcie. GradNetOT to nowatorska metoda uczenia maszynowego, która uczy takie optymalne mapy za pomocą sieci neuronowych z wbudowanym „uprzedzeniem” fizycznym.

Czym jest optymalny transport?

  • Klasyczna definicja: Mając dwie dystrybucje prawdopodobieństwa (zasoby i cele), znajdź sposób przesunięcia masy z minimalnym kosztem.
  • Twierdzenie Monge’a: Przy koszcie opartym na kwadracie odległości optymalna mapa to gradient funkcji wypukłej spełniającej równanie Monge–Ampère.

Podejście GradNetOT

GradNetOT wykorzystuje specjalną architekturę zwaną Monotone Gradient Network (mGradNet), która reprezentuje funkcje wypukłe w sposób gwarantujący spójność:

  1. Potencjał wypukły: Mapa transportowa to $\nabla u(x)$, gdzie $u$ jest wypukła.
  2. Uprzedzenie strukturalne: Architektura sieci zapewnia wypukłość $u$ bez dodatkowych kar.
  3. Funkcja straty: Minimalizuje resztę równania Monge–Ampère: $$ \det(\nabla^2 u(x)) = \frac{\rho_{\rm źródło}(x)}{\rho_{\rm cel}(\nabla u(x))}. $$

Jak to działa?

  1. Próbki wejściowe z dystrybucji źródłowej trafiają do sieci.
  2. Przepływ w przód daje wartość potencjału $u(x)$.
  3. Obliczenie gradientu zwraca mapę $T(x) = \nabla u(x)$.
  4. Reszta Monge–Ampère:
    • Obliczamy hesjan $\nabla^2 u(x)$.
    • Porównujemy $\det(\nabla^2 u)$ z proporcją gęstości.
  5. Optymalizacja: Sieć uczy się, jak minimalizować tę resztę.

Dzięki gwarantowanej wypukłości, metoda od razu generuje poprawne mapy transportu.

Przykład obrazowy

Wyobraź sobie jednorodne punkty w kole, które chcesz przerzucić w rozkład dzwonowy (Gaussa):

  1. Źródło: punkty równomiernie w kole.
  2. Cel: punkty w kształcie dzwonu gaussowskiego.
  3. GradNetOT uczy mapy, która rozciąga i ściska koło do kształtu dzwonu – jak formować glinę.

Po treningu nowe punkty z koła, przełożone przez GradNetOT, układają się w idealny rozkład Gaussa.

Zalety i zastosowania

  • Dokładność: Lepsze od klasycznych metod OT w wysokich wymiarach.
  • Skalowalność: Sieci uczą się na milionach próbek.
  • Interpretowalność: Funkcję potencjału $u(x)$ można analizować.
  • Przykłady użycia:
    • Sterowanie rojem robotów
    • Mapowanie tekstur w grafice
    • Analiza rynków w ekonomii

Podsumowanie

GradNetOT łączy modelowanie fizyczne i uczenie głębokie, aby efektywnie i przejrzyście rozwiązywać problemy optymalnego transportu. Wbudowane uprzedzenia strukturalne czynią go gotowym do zastosowań naukowych i praktycznych.


📎 Linki