dus over de grenzen van AI voor autonome vooruitgang voor context: een paar dagen geleden schreef ik een prompt voor een "NanoHVM" - een speelgoedversie van mijn runtime, met 16-bits termen - en vroeg ik de AI's om een evaluator te schrijven. na een paar rondes van samenwerking tussen mens en AI, kreeg ik een verrassend snelle implementatie helaas, het bestand werd erg groot en lelijk, dus ik wilde het kleiner maken. Ik zette een codex/claude/gemini-sessie op en vroeg hen om "maak het korter". de eerste prompt werkte, dus ik bleef dezelfde verzoeken herhalen, keer op keer, gedurende meerdere uren. uiteindelijk stuitten de AI's op een muur. hoe vaak ik ook bleef vragen, ze konden het niet verder inkorten dan een bepaalde drempel. ik wilde begrijpen waarom, dus las ik het bestand. tot mijn verbazing was het duidelijk niet optimaal - tonnen redundantie en slechte abstracties - toch veranderde het nauwelijks meer. commit na commit, het bevatte nog steeds dezelfde technieken, dezelfde benadering en dezelfde redundantie. er waren alleen kleine aanpassingen, maar er vond geen grote herschrijving plaats, en dat was nodig voor verdere winst. dus vroeg ik de AI om precies dat te doen. "doe deze keer een complete herschrijving" "redeneer er fundamenteel over" "je bent vrij om alles te veranderen" "stop met incrementele veranderingen" "vervang X door een geheel nieuwe benadering" doch, dit was tevergeefs. deze algemene verzoeken hadden totaal geen effect. uren later implementeerde het bestand nog steeds dezelfde benadering. de AI zat vast in een lokale minima en kon er niet uitkomen. dus gaf ik het op en besloot me erbij aan te sluiten. Ik nam een paar minuten de tijd om erover na te denken en schreef een korte prompt - ongeveer 500 tokens lang - met specifieke richtlijnen. "vervang X door Y, doe Z op deze manier". op de een of andere manier zorgden deze ~3 paragrafen ervoor dat er iets klikte, ze kwamen onmiddellijk weer in beweging, werkten ongeveer 1u30m achter elkaar en kwamen terug met een bestand dat bijna 2x kleiner *en* 10% sneller was. en het was een echt mooi, hoogwaardig bestand dus, ik denk dat de les is: moderne AI's kunnen geen autonome vooruitgang boeken. als je ze onbeheerd laat werken, zullen ze vastlopen. dat is een fundamentele beperking van hoe deze dingen werken, althans voor nu. maar als je, elke paar uur, 5-10 minuten neemt om ze opnieuw te bekijken, te begrijpen waar ze zijn, en wat menselijke kennis injecteert - dan blijven ze gewoon doorgaan, doen enorme hoeveelheden werk en behalen ongelooflijke resultaten, terwijl jij je weekend doorbrengt met het spelen van wat spelletjes ik vraag me af wat er ontbreekt voor hen om zich zonder mijn tussenkomst weer los te maken. het voelt alsof mijn prompt niets bijzonders had. alle ideeën daarin zijn concepten die deze AI's kennen, en het voelt alsof ze absoluut met deze ideeën zelf hadden kunnen komen. toch doen ze dat gewoon niet... waarom? hoe dan ook, ik ben van plan om dit schattige ding later volgende week open source te maken. het is niet echt nuttig voor de meesten van jullie, maar als je toevallig op zoek bent naar de snelste 16-bits patroonherkenningsengine ter wereld, dan is dit bestand misschien precies wat je zocht!
"voorzichtig, dit is je laatste bewerking" maak je geen zorgen, ik ben ervan overtuigd dat dat de laatste typefout was
oh, verdomme
44