Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Případy, kdy se malé mozky staly chytřejšími: výsledky experimentu @SentientAGI
Mýtus, že "čím větší model, tím chytřejší", boří Sentient.
V benchmarku LiveCodeBenchPro je to model Dobby-CP, který má parametry 7~14B a 20 % trénovacích dat (můžete si to představit jen jako učení malého množství),
Vykazoval stejnou míru úspěšnosti u otázek střední obtížnosti jako supervelké modely na úrovni GPT.
To prokázalo, že skóre získané v tradičních snadných zkouškách nezaručuje skutečné schopnosti řešit problémy.
Základní technologií, která k tomuto výkonu výrazně přispěla, je rámec ROMA.
Rámec ROMA rozděluje složité výzvy do fází a zpracovává je paralelně.
Snížil náklady na odvozování o 50~80 % a dosáhl vyšší přesnosti než GPT.
Tyto výsledky jsou číselným důkazem, že kvalita dat a schopnost modelu porozumět a učit se závisí spíše na inteligenci než na velikosti jednoduchého modelu.
---
Vnímaví výzkumníci implementovali OML 1.0, který do modelu umístil 25 000 otisků prstů, aniž by byl obětován výkon.
Říká se, že reakce komunity je také taková, že čím větší AI, tím hloupější se stává.
Je to srovnatelné s efektivitou lidského mozku, který provádí uvažování na vysoké úrovni s výkonem 20 wattů.
Závěrem lze říci, že Sentient předvádí monstrózní umělou inteligenci, která se i přes svůj menší model jeví jako vysoce inteligentní s vyšší efektivitou.

Top
Hodnocení
Oblíbené

