Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Schodiště Sigmoida
Po přečtení článku o Dwarkesh, který mě docela znepokojil, jsem se pustil do odkazu. V příspěvku zmiňuje:
"Toby Ord má skvělý příspěvek, kde chytře spojuje různé benchmarkové grafy řady O, které naznačují, že "potřebujeme něco jako 1 000 000x zvětšení celkového RL výpočtu, abychom dosáhli boostu podobného úrovni GPT."
To zní, jako by se věci měly zastavit.
Toby dokonce říká dvě věci, které mě znepokojovaly:
1. "Viděli jsme působivé zisky, ale ty byly životaschopné jen při startu z tak nízké základy. Dostali jsme se do bodu, kdy je příliš drahé jít dál."
2. "Nyní, když se trénink RL blíží svému efektivnímu limitu, možná jsme ztratili schopnost efektivně přeměnit více výpočetního výkonu na více inteligence."
Ptal jsem se, jak oprávněné toto tvrzení bylo a jaký byl protiargumentující argument pro rozšíření reálného života.
Dobrý přítel řekl: "Ano, pokud budete naivně škálovat RL výpočetní kapacitu, bude škálovat špatně. Ale neměli bychom to dělat! Proto je tolik firem zabývajících se životním prostředím. Lepší přístup je škálovat do novějších, obtížnějších prostředí. "
Po krátkém zamyšlení jsem našel způsob, jak to ještě více zhrnout na: "Představovat si to jako schodiště jsou sigmoidi pro nové úkoly, světy, cíle je nejužitečnější způsob, jak přemýšlet o tom, jak to může pokračovat ještě nějakou dobu."
Top
Hodnocení
Oblíbené

