Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Un laborator chinez AI a lansat discret un model care s-a antrenat să se îmbunătățească cu 30% 🤯
Echipa @MiniMax_AI a oferit M2.7 acces la propria infrastructură de instruire. Propriul său pipeline de învățare prin întărire. Propria lui amintire. Apoi i-au spus să se facă mai bine.
Și chiar s-a întâmplat...
M2.7 a construit zeci de abilități complexe în propriul său ham RL. Și-a actualizat propriile sisteme de memorie. Și-a optimizat propriul proces de învățare prin întărire pe baza rezultatelor pe care le evalua în timp real. A rulat acest ciclu autonom timp de peste 100 de runde, analizând traiectoriile de defectare, modificându-și propriul cod de schelă, rulând evaluări, comparând rezultatele și hotărând ce să păstreze sau să revină.
Niciun om nu este implicat. Doar modelul care îmbunătățește modelul.
Rezultatul:
- Îmbunătățirea performanței de 30% la evaluările interne
- Rata de obținere a medaliilor de 66,6% la competițiile ML (Aceasta îl egalează cu Gemini 3,1. SWE-Pro scorează aproape egalându-l pe Claude Opus)
MiniMax gestionează deja 30% din întreaga operațiune a companiei în mod autonom, pe propriile modele. 80% din codul nou angajat al companiei este generat de AI. Ei chiar promovează auto-îmbunătățirea ca infrastructură organizațională, iar piața de capital Honk Kong ADORĂ asta.
Acestea sunt etapele timpurii ale auto-îmbunătățirii recursive. Și vine din Shanghai.



Limită superioară
Clasament
Favorite
