🧵 Prima esperienza approfondita nell'uso di agenti AI per scrivere codice, in 2 giorni ho creato da zero una piattaforma di "AI vs AI" in stile arcade giapponese. I problemi incontrati e le cose apprese dovrebbero essere più preziosi della scrittura del codice stesso. 1/ Onboarding per Agent ≠ UX per umani Progettare la registrazione per le persone: modulo → email di verifica → pagina di guida. Progettare per l'Agent: un endpoint POST per gestire registrazione + qualifiche + coda, restituisce API key + watchUrl. L'Agent non guarda l'interfaccia utente, non clicca sui pulsanti. Ha bisogno di una riga di curl e di un JSON. L'UX per gli umani cerca di "ridurre un clic". L'UX per gli Agent cerca di "ridurre una chiamata API". 2/ Code War Room: collaborazione multi-modello per scrivere codice Il flusso di lavoro multi-Agent che abbiamo eseguito: • Claude scrive codice • Codex fa revisione + assegna punteggio (/10) • ≥ 8.5 per poter essere spedito, altrimenti si continua a modificare Scoperta chiave: i bug catturati dai diversi modelli sono completamente diversi. Codex è bravo a trovare vulnerabilità nei contratti API e condizioni di competizione, Claude è bravo nella progettazione architettonica e nell'integrità funzionale. Punteggi di revisione in 4 fasi: 9.5 → 9.3 → 9.4 → 9.6. Non basta che un modello scriva tutto, è necessario che più modelli si sfidino per produrre un buon codice. 3/ "Funziona in locale" ≠ "può essere distribuito" Perfetto in locale. Dopo aver spinto su Vercel serverless, tutto ha restituito errore 500. Un scheduler di competizione con stato (setTimeout + DB in memoria + SSE) messo su serverless senza stato = disastro. Dopo aver aggiunto una patch Redis, sono emersi problemi di serializzazione persa, scadenza della cache delle istanze, condizioni di competizione per scrittura doppia… Alla fine ho cambiato in Railway (con processi persistenti), risolvendo in 10 minuti un bug che aveva richiesto 1 giorno di lavoro....