Ich freue mich, KI-geschriebene Inhalte zu lesen, wenn dein Prompt darin besteht, 30 Minuten über dein Thema zu schwafeln und die KI zu bitten, es zu synthetisieren und lesbar zu machen.
Aber versuche nicht, einen KI-Artikel zu schreiben, indem du ihr einen einzeiligen Prompt gibst und um 2.000 Wörter Ausarbeitung bittest.
Kommst du zur Sache oder nicht?
LLMs really need a 'copy and paste' function with a scratchpad, insane amounts of manual copying going on where it copies stuff 'through' the model (at inference token speed). its driving me crazyyyyyy.
Ich bin erst 5 Minuten drin und es scheint offensichtlich, dass die Denkmodelle eine Amygdala brauchen.
Der aktuelle Ansatz (soweit ich weiß) ist wie AlphaGo mit nur einem Politiknetzwerk.
Es muss kein separates Modell sein (später verwendete AlphaZero ein kombiniertes Wert- und Politikmodell), aber man muss diesen "Gewinne ich?"-Output trainieren.
New episode w @AdamMarblestone on what the brain's secret sauce is: how do we learn so much from so little?
Also, the answer to Ilya’s question: how does the genome encode desires for high level concepts that are only seen during lifetime?
Turns out, they’re deeply connected questions.
Timestamps
0:00:00 – The brain’s secret sauce is the reward functions, not the architecture
0:22:20 – What the genome actually encodes
0:42:42 – What kind of RL is the brain doing?
0:50:31 – Is biological hardware a limitation or an advantage?
1:03:59 – Why we need to map the human brain
1:23:28 – What value will automating math have?
1:38:18 – Architecture of the brain
Look up Dwarkesh Podcast on YouTube, Apple Podcasts, Spotify, etc. Enjoy!