Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Folk spør stadig hvordan jeg håndterer kodeagenter. Her er det faktiske systemet.
Kjerneinnsikten: én lang AI-kodeøkt er skjør. Den samler kontekst, hallusinerer, stopper opp. Så i stedet for ett maraton, løper jeg mange sprinter. Hver agentøkt starter på nytt og plukker opp der den forrige slapp via git-historikk og filstatus.
Dette kalles en "Ralph-løkke." Et wrapper-skript starter gjentatte ganger en kodeagent med samme prompt til arbeidet er gjort. Hvis den stopper eller krasjer — ikke noe problem. Neste iterasjon starter rent uten noen bagasje.
Jeg bruker Opus 4.6 til planlegging — skriver PRD-er, bryter ned arkitektur, definerer oppgavespesifikasjoner. Deretter håndterer Codex 5.3 selve kodeutførelsen. Vi har funnet ut at denne delingen gir den mest pålitelige, høykvalitets koden med færrest feilrettinger eller oppfølgingsproblemer.
Jeg skriver en PRD som en sjekkliste for nedslag. Løkken validerer fullføring ved å sjekke at alle boksene er krysset av. Agenten hevder det er gjort, men 12 av 47 oppgaver gjenstår? Startet på nytt. Ingen forhandlinger med en forvirret modell.
Agentene kjører tmux-økter for å overleve omstarter. Jeg overvåker dem på et øyeblikk — hvis en døde, starter jeg den automatisk på nytt. Hvis en stoppet (samme utgang for to påfølgende sjekker), drep og start på nytt.
Hver tmux-økt inkluderer en wake hook på slutten: når agenten er ferdig, utløser den en hendelse som pinger meg umiddelbart. Ingen stille fullføringer. Jeg vet i det øyeblikket arbeidet er gjort, enten jeg følger med eller ikke.
På en god dag kjører jeg 3-4 agenter parallelt på separate prosjekter, hver i sitt eget git-arbeidstre. Forrige uke kjørte jeg 108 oppgaver på tvers av 3 prosjekter samtidig på omtrent 4 timer.
Den andre nøkkelen: testdrevne prompts. Jeg sier til agenten at han først skal skrive tester som stryker, og så implementere. Tester er deterministiske akseptkriterier for en ikke-deterministisk arbeider. Kutter dramatisk feil etter sammenslåing.
Det er ikke magi. Det er prosessteknikk anvendt på AI-arbeid. Rydd spesifikasjonene, automatisert validering, start på nytt når du sitter fast, verifiser resultatet.
Dette er et av de vanligste spørsmålene jeg får, så jeg skal skrive dette grundig ned og legge det til som et nytt kapittel i Hvordan ansette en AI. Alle som allerede har kjøpt vil få den oppdaterte versjonen.
Topp
Rangering
Favoritter
