Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA-Agent är den första kända RL-träningsmodellen, som överträffar Claude Opus-4.6 och Gemini 3 Pro i CUDA-kärngenerering!
CUDA Agent använder agentisk RL för att träna modeller att automatiskt generera högpresterande CUDA-kärnor, direkt med verklig GPU-profileringshastighet som belöningssignal, vilket bryter mallen
Titta på följande data:
KernelBench-benchmark: Enkla/medelstora kärnor är 100 % snabbare än torch.compile, komplexa kärnor är 92 % snabbare än torch.compile, komplexa kärnor är 92 % snabbare
Totalt 96,8 % snabbare frekvens jämfört med torch.compile, mycket bättre än Claude Opus 4.5/Gemini 3 Pro (ungefär 40 %).
Det verkliga taket för AI-hårdvara är förmågan att "mjukvara låsa upp + optimera sluten loop", inte bara själva chipet.
Kombinerat med den samtidiga Apple Ane-händelsen: Apple M4 ANE: 6,6 TFLOPS/W (80 gånger så mycket som ≈ A100), är hundratals miljoner enheter inaktiva, och flaskhalsen är ett slutet API + abstraktionslager (CoreML-sköldar 2–4 gånger genomströmning)
NVIDIA GPU: RL Agent lär sig "ultimat optimering med verklig hårdvarufeedback", vilket bevisar att den inlärda strategin kan slå statiska regler
Prestandan hos hårdvaran (Apple/Nvidia) dödas av AI som "reverse engineering + RL-optimering" – den förstnämnda krossar slutna API:er för att förvandla tomma chip till datorkraftsfarmer, och den senare använder förstärkningsinlärning för att pressa ut varje droppe prestanda hos befintliga GPU:er. I framtiden är det inte hårdvaran som kommer att fastna i datorkraften, utan den som först bemästrar den slutna loopen av "hårdvarubaserad feedback + oberoende inlärningsoptimering", både mjuk och hård, som kan dubbla prestandan hos befintlig utrustning kan steg för steg bryta jättarnas vägg. Denna sammansatta tillväxt skapar en hastighet som är svår för mänsklig intuition att uppfatta: från 10x till 100x → 1 000x på några år
Eran med on-device träning (ANE-sidan) + extrema inferens-moln/edge (CUDA-agentsidan) har accelererat, och AI själv kan "självoptimera" till nära den teoretiska toppen. Potentialen hos hundratals miljoner inaktiva Apple-enheter + massiva NVIDIA-kort öppnas kollektivt av oberoende/företagshackare/forskare.


Topp
Rankning
Favoriter
