Tilfeller der små hjerner ble smartere: resultater av @SentientAGI eksperiment Myten om at "jo større modell, jo smartere" blir knust av Sentient. I LiveCodeBenchPro-referansen, Dobby-CP-modellen, som har parametere på 7~14B og 20% av treningsdataene (du kan bare tenke på det som å lære en liten mengde), Den viste samme beståttrate for spørsmål med middels vanskelighetsgrad som superstore modeller på GPT-nivå. Dette beviste at poeng oppnådd på tradisjonelle enkle eksamener ikke garanterer reelle problemløsningsferdigheter. Kjerneteknologien som har bidratt sterkt til denne ytelsen er ROMA-rammeverket. ROMA-rammeverket bryter ned komplekse utfordringer i faser og behandler dem parallelt. Det reduserte slutningskostnadene med 50 ~ 80% og oppnådde høyere nøyaktighet enn GPT. Disse resultatene er numeriske bevis på at kvaliteten på data og modellens evne til å forstå og lære avhenger av intelligens, snarere enn størrelsen på en enkel modell. --- Sentient-forskere implementerte OML 1.0, som sitter 25 000 fingeravtrykk inne i modellen, uten å ofre ytelsen. Det sies at samfunnets reaksjon også er at jo større AI, jo dummere blir den. Det kan sammenlignes med effektiviteten til den menneskelige hjernen, som utfører resonnement på høyt nivå med 20 watt kraft. Avslutningsvis kan det sies at Sentient demonstrerer en monstrøs AI som ser ut til å være svært intelligent med høyere effektivitet til tross for sin mindre modell.