Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Przełom: Teoretyczne przycinanie gier zmniejsza rozmiar sieci neuronowej o nawet 90% przy niemal zerowej utracie dokładności: Odkrywanie rewolucji AI na krawędzi!
Testuję to teraz na lokalnym AI i to jest zdumiewające!
Wprowadzono przycinanie jako grę.
Sparsifikacja napędzana równowagą sieci neuronowych, nowatorskie podejście, które traktuje przycinanie parametrów jako strategiczną rywalizację między wagami. Ta metoda dynamicznie identyfikuje i usuwa zbędne połączenia poprzez równowagę teoretyczną gier, osiągając ogromną kompresję przy zachowaniu – a czasem nawet poprawie – wydajności modelu.
Opublikowane na arXiv zaledwie kilka dni temu (grudzień 2025), praca pokazuje oszałamiające wyniki: poziomy rzadkości przekraczające 90% w modelach dużej skali z spadkami dokładności mniejszymi niż 1% w benchmarkach takich jak ImageNet i CIFAR-10. Dla olbrzymów z miliardem parametrów, przekłada się to na drastyczne zmniejszenie śladu pamięci (nawet 10x mniejsze), szybkości wnioskowania (2-5x szybsze na standardowym sprzęcie) i zużycia energii – wszystko to bez bólów głowy związanych z ponownym trenowaniem tradycyjnymi metodami.
Dlaczego to zmienia wszystko
Tradycyjne techniki przycinania – takie jak usuwanie oparte na magnitudzie lub gradientach – często borykają się z "żalem przycinania", gdzie agresywna kompresja obniża wydajność, zmuszając do kosztownych cykli dostrajania. Ale ten nowy napędzany równowagą framework zmienia zasady gry: parametry "rywalizują" w grze kooperacyjnej lub niekooperacyjnej, gdzie równowaga podobna do Nash'a ujawnia naprawdę nieistotne wagi.
Rezultat?
Czystsza, bardziej stabilna sparsifikacja, która przewyższa najnowocześniejsze standardy w transformatorach wizji, sieciach konwolucyjnych, a nawet w nowo powstających architekturach multimodalnych.
Kluczowe punkty z eksperymentów:
•90-95% rzadkości w ResNet-50 z utratą dokładności top-1 <0,5% (w porównaniu do 2-5% w poprzednich SOTA).
•Do 4x szybsze wnioskowanie na mobilnych GPU, co czyni modele z miliardem parametrów wykonalnymi dla smartfonów i urządzeń IoT.
•Lepsza odporność: Rzadkie modele utrzymują wydajność w obliczu zmian rozkładu i ataków adwersarialnych lepiej niż gęste odpowiedniki.
To nie jest tylko inkrementalne – to zmiana paradygmatu. Wyobraź sobie uruchamianie reasoning na poziomie GPT na swoim telefonie, analizę wideo w czasie rzeczywistym na dronach lub diagnostykę zdrowotną opartą na krawędzi bez zależności od chmury.
Poprzez zmniejszenie śladu środowiskowego masowego trenowania i wnioskowania, stawia również czoła rosnącemu kryzysowi energetycznemu AI.
...

Najlepsze
Ranking
Ulubione
