Jag modererade en diskussion mellan Dwarkesh, Dr. Burry och John Clark (från Anthropic) om oenigheter bland de personer som är bättre insatt i AI, inklusive framtida påverkan på sysselsättning, om det är en bubbla osv. Tack till Substack för att de gjorde det möjligt.
En deloenighet är i vilken utsträckning LLM:er, som denna grupp helt håller med om kan göra kommersiellt värdefulla saker, är taggiga och felbenägna på svårförutsägbara sätt. Ja! Det är även människor. Och som tur är har vi olika buggar.
En poäng som Jack lyfte fram och som är en av de största förståelseluckorna mellan välinformerade och de som behöver vara välinformerade: dagens förmågor är ett golv snarare än ett tak. Alla framtida system får välja att välja eller kassera dem.
Jack berättar kort hur LLM:er var ett skarpt avsteg från den tidigare populära idén att vi skulle utveckla intelligens genom att bygga hundratusen testbäddar, låta punktlösningar lära sig vinna knappt, och sedan ??? Generalisering innebär intelligens.
Istället har vi byggt ett *slående* allmänt verktyg för vad som går till en miljö ("placera det i ett rum med varje skriftligt dokument") och sedan råkar det som snubblade ut vara otroligt framgångsrikt när man kastar det på nya uppgifter. De kommande åren kan innebära att man bygger testbäddar.
Som jag observerade: vi brukade träna AI:er att spela StarCraft. Alla framtida försök att göra detta kan anta att systemet har läst Krigskonsten på originalkinesiska, om inte arkitekten/arkitekterna tror att den kunskapen gör dig sämre på att stoppa zergling rushes.
* Jack Clark, inte John Clark. Förlåt, växte upp med att läsa Tom Clancy. En dag kommer de kunna förhandsgranska mina tweets, och jag kommer att glädjas åt hur mycket mindre ägg på ansiktet som händer när jag skriver på mobilen.
231