🔥 Questo cambia tutto riguardo all'AI a lungo contesto. Un nuovo documento "Ogni Attenzione Conta" ha silenziosamente ristrutturato il modo in cui i trasformatori gestiscono oltre 128K token. Il team Ling ha costruito un'attenzione ibrida "Ring-lineare" che fonde Softmax con l'Attenzione Lineare. Risultato? Inferenza 10 volte più economica senza compromessi sulla precisione. Ma ecco cosa mi ha lasciato a bocca aperta: +50% di efficienza nell'addestramento +90% di velocità di inferenza Ottimizzazione RL stabile su sequenze ultra-lunghe Niente sciocchezze da trilioni di parametri. Niente hardware esotico. Solo architettura più intelligente. Il futuro dell'AI non è un'attenzione più grande. È un'attenzione più intelligente.