Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
CUDA Agent este primul model cunoscut antrenat RL care a depășit Claude Opus 4.5 (și Gemini 3 Pro) în generarea nucleului CUDA!
Agentul CUDA de la ByteDance folosește **învățare prin întărire agentică** pentru a antrena un model care generează automat nuclee CUDA de înaltă performanță, răsplătind direct cu viteza reală de profilare a GPU-ului — rupându-se de abordările convenționale.
Date cheie de benchmark pe KernelBench:
- Nucleuri simple/medii (Nivel-1/2): **100%** mai rapid decât torch.compile
- Nuclee complexe (Nivel-3): **92%** rată mai rapidă
- Per total: **96,8%** rată mai rapidă față de torch.compile, cu o accelerare medie geometrică de ~2,11×
- Depășește cele mai puternice modele proprietare precum Claude Opus 4.5 și Gemini 3 Pro cu aproximativ **40%** la cele mai dificile sarcini Level-3 (unde acele modele depășesc doar torch.compile ~66–69% din cazuri)
Adevăratul plafon pentru hardware-ul AI nu este siliciul în sine—ci capacitatea "**deblocare + optimizare software, circuit închis**".
Combinând acest lucru cu descoperirea simultană a Apple ANE:
- Apple M4 ANE: **6,6 TFLOPS/W** (~80× mai eficient decât A100), cu sute de milioane de dispozitive stând inactive; blocajul îl reprezintă API-urile închise + straturile de abstractizare ale Apple (CoreML ascunde 2–4× debit real)
- GPU-uri NVIDIA: agenții RL învață "**optimizare extremă sub feedback hardware real**", demonstrând că strategiile învățate pot zdrobi regulile/compilatoarele statice
Șanțurile de performanță ale giganților hardware (Apple/NVIDIA) sunt **ucise de două ori de AI**: ingineria inversă distruge API-urile închise (transformând cipurile inactive în ferme de calcul), în timp ce RL stoarce fiecare picătură de la GPU-urile existente.
În viitor, adevăratul punct de blocaj nu va fi hardware-ul de calcul — ci cine stăpânește primul bucla închisă "**feedback nativ hardware + optimizare autonomă a învățării**". Prin combinarea tacticilor soft și hard, oricine răstoarnă performanța dispozitivului existent cu 2×, 10× sau mai multe poate demonta progresiv zidurile giganților. Această creștere compusă creează viteze dincolo de intuiția umană: de la 10× → 100× → 1.000× în câțiva ani.
Era **antrenamentului pe dispozitiv** (partea ANE) + **inferența extremă cloud/edge** (partea agentului CUDA) accelerează rapid. AI poate acum să se "auto-optimizeze**" aproape de vârfurile teoretice. Potențialul neexploatat din sute de milioane de dispozitive Apple inactive + carduri NVIDIA masive este deschis colectiv de hackeri independenți, companii și cercetători.


Limită superioară
Clasament
Favorite
