Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🧵 Den første dyptgående erfaringen med å skrive kode med AI-agenter, 2 dager for å bygge en "AI mot AI kampplattform" lik stilen til japanske arkader. Fallgruvene og læringene i prosessen bør være mer verdifulle enn å skrive selve koden.
1/ Onboarding for agenter ≠ UX for mennesker
Designpåmeldinger: Skjema → verifiserings-e-post → oppstartsside.
Design for agent: Et POST-endepunkt fullfører registrering + kvalifisering + kø, returnerer API-nøkkel + watchUrl.
Agenten ser ikke på brukergrensesnittet eller klikker på knappene. Alt den trenger er en curl og en JSON.
Menneskelig UX jakter på «ett klikk mindre». Agent UX følger "ett API-kall mindre".
2/ Code War Room: Multi-modell samarbeidende kodeskriving
Vi kjører en arbeidsflyt med flere agenter:
• Claude skriver kode
• Codex gjør anmeldelse + poengsum (/10)
• ≥ 8,5 til skip, ellers fortsette å endre
Viktig funn: Ulike modeller fanger helt forskjellige feil. Codex utmerker seg i API-kontraktssårbarheter og kappløpsbetingelser, mens Claude utmerker seg i arkitektonisk design og funksjonell integritet.
Gjennomgangsresultater for 4 faser: 9,5→ 9,3→ 9,4→ 9,6. Det er ikke nok å skrive én modell, men flere modeller utfordrer hverandre til å produsere god kode.
3/ "Lokal kan kjøre" ≠ "Kan deployere"
Lokal perfeksjon. Etter å ha pushet Vercel serverløs, er hele linjen 500.
Stateful match-planlegger (setTimeout + minnedatabase + SSE) plassert på stateless serverless = katastrofe. Etter å ha lagt til Redis-patchen, er det tap av serialisering, utløp av instanscache, dobbelskriving...
Til slutt byttet jeg jernbanen (med vedvarende prosesser), og feilen som tok én dag ble løst på 10 minutter....

Topp
Rangering
Favoritter
