Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Beispiele für kleinere Gehirne, die intelligenter werden: Ergebnisse des Experiments von @SentientAGI
Die Annahme, dass "größere Modelle intelligenter sind", wird von Sentient widerlegt.
Im LiveCodeBenchPro-Benchmark hat das Dobby-CP-Modell mit 7–14B Parametern und nur 20% der Trainingsdaten (man kann sagen, dass es nur eine kleine Menge gelernt hat)
die gleiche Durchfallquote bei mittelschweren Problemen wie GPT-Modelle gezeigt.
Dies beweist, dass die Punktzahlen, die in einfachen Tests erzielt werden, nicht die tatsächliche Problemlösungsfähigkeit garantieren.
Die Schlüsseltechnologie von Sentient, die zu dieser Leistung beigetragen hat, ist das ROMA-Framework.
Das ROMA-Framework zerlegt komplexe Aufgaben in kleine Schritte und verarbeitet sie parallel.
Es hat die Inferenzkosten um 50–80% gesenkt und eine höhere Genauigkeit als GPT erreicht.
Diese Ergebnisse sind ein quantitativer Beweis dafür, dass die Qualität der Daten und die Verständnis- sowie Lernfähigkeit des Modells die Intelligenz bestimmen, anstatt einfach die Größe des Modells.
---
Das Forschungsteam von Sentient hat OML 1.0 implementiert, das 25.000 Fingerabdrücke im Modell integriert, ohne die Leistung zu beeinträchtigen.
Die Reaktionen der Community deuten darauf hin, dass es heißt, je größer die KI wird, desto dümmer wird sie.
Man kann dies mit der Effizienz vergleichen, mit der das menschliche Gehirn hochdimensionale Inferenz mit nur 20W Leistung durchführt.
Zusammenfassend lässt sich sagen, dass Sentient trotz kleinerer Modelle eine Art Monster-AI zeigt, die mit höherer Effizienz eine höhere Intelligenz aufweist.

Top
Ranking
Favoriten

