Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Esempi di piccole menti che diventano più intelligenti: risultati dell'esperimento di @SentientAGI
Il concetto che "più grande è il modello, più intelligente è" è stato sfatato da Sentient.
Il modello Dobby-CP, con parametri da 7 a 14B e solo il 20% dei dati di addestramento (si può considerare che ha appreso solo una piccola quantità), ha mostrato un tasso di successo su problemi di difficoltà media pari a quello di modelli ultra-grandi come GPT.
Questo ha dimostrato che i punteggi ottenuti in test facili, come in passato, non garantiscono la reale capacità di risoluzione dei problemi.
La tecnologia chiave di Sentient che ha contribuito a queste prestazioni è il framework ROMA.
Il framework ROMA suddivide compiti complessi in passaggi più piccoli da elaborare in parallelo.
Ha raggiunto un'accuratezza superiore a GPT riducendo i costi di inferenza del 50-80%.
Questi risultati dimostrano numericamente che, invece delle dimensioni del modello, è la qualità dei dati e la capacità di comprensione e apprendimento del modello a determinare l'intelligenza.
---
Il team di ricerca di Sentient ha implementato OML 1.0, che inserisce 25.000 impronte digitali all'interno del modello, senza degradare le prestazioni.
La reazione della comunità suggerisce che man mano che l'AI cresce, diventa più stupida.
Si può paragonare all'efficienza del cervello umano, che esegue ragionamenti di alto livello con solo 20W di potenza.
In conclusione, si può dire che Sentient sta mostrando un'AI mostruosa che appare altamente intelligente con una maggiore efficienza, nonostante sia un modello piccolo.

Principali
Ranking
Preferiti

