Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Kiedy leki GLP-1 okazały się skuteczne w tłumieniu apetytu, widziałeś, jak ludzie mówią o jedzeniu, które "naturalnie zwiększa GLP-1." Ale to całkowicie pomija mechanizm.
Terapeutyczne dawki agonistów GLP-1 działają na poziomie około 6,000 razy wyższych niż szczytowe endogenne poziomy.
GLP-1 nie jest "hormonem apetytu." To jeden z wielu sygnałów, które modulują głód.
Kofeina również tłumi apetyt poprzez szlaki dopaminergiczne i adrenergiczne, ale to nie oznacza, że kofeina jest hormonem apetytu.
To, co czyni farmakologiczny GLP-1 tak potężnym, to nie to, że znalazł właściwą dźwignię. To to, że pociągnął jedną dźwignię wystarczająco mocno, aby przytłoczyć wszystkie inne.
W podobny sposób generowanie tokenów predykcyjnych nie jest oczywiście tym, na czym opiera się cała inteligencja, ale wiemy, że jest jednym z wielu czynników.
Ale GLP-1 nauczyło nas czegoś: jeśli wzmocnisz jeden przyczynowy mechanizm o kilka rzędów wielkości, może on osiągnąć niemal całkowitą kontrolę funkcjonalną nad większym systemem, w którym uczestniczy.
Nie musisz replikować całej sieci apetytu, wystarczy, że skalujesz jeden komponent daleko poza jego naturalny zakres działania.
Więc pytanie brzmi: czy generowanie tokenów predykcyjnych w inteligencji jest tym, czym GLP-1 jest dla apetytu?
Mechanizm, który, w swoim naturalnym zakresie, jest tylko jednym z czynników, ale przy skali 10,000x staje się funkcjonalnie wystarczający?
Nie dlatego, że predykcja jest inteligencją, ale dlatego, że przy wystarczającej wielkości naśladuje wystarczająco dużo z tego, co robi inteligencja, aby stać się operacyjnie nieodróżnialnym od niej.
Najlepsze
Ranking
Ulubione
