Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Všichni si na ten nový článek od AWS myslí.
Model 100x menší než GPT a Claude je rozdrtil při volání nástrojů.
Výzkumníci AWS vzali model OPT-350M od Facebooku z roku 2022 s 500x méně parametry než GPT a na ToolBench ho doladili pro jednu epochu.
Výsledky jsou šílené:
↳ Jejich SLM: 77,55 % úspěšnost
↳ ChatGPT-CoT: 26 %
↳ ToolLLaMA: 30 %
↳ Claude-CoT: 2,73 %
Tady je, co se děje:
Velké modely trpí "ředením parametrů". Většina jejich kapacity je optimalizována pro obecné jazykové úkoly, nikoli pro přesné vzorce Thought-Action-Action Input, které vyžaduje volání nástrojů.
Malý model trénovaný speciálně na volání nástrojů soustředí veškerou svou kapacitu na tuto jednu věc. Žádné rozptýlení.
Tréninkové nastavení bylo překvapivě jednoduché. Přiléhající čelní TRL, 187K příkladů, rychlost učení 5e-5 a agresivní gradientní ořezávání pro stabilitu.
Ale chci být v jedné věci jasný:
To neznamená, že malé modely vyhrávají všude. Autoři přiznávají, že jejich model může mít potíže s komplikovanými kontextovými nuancemi nebo nejasnými požadavky. Je to specialista, ne generalista.
Přesto, pokud stavíte agentické systémy a chcete snížit náklady na inference o řády, stojí za to tomu věnovat pozornost.
Odkaz na článek jsem sdílel v dalším tweetu.

Top
Hodnocení
Oblíbené
