Ho appena finito l'intervista di @karpathy con @dwarkesh_sp. Se vuoi capire lo stato dell'AI, dovresti ascoltare tutte le 2,5 ore. Ma ecco le mie note: L'oracolo della vibrazione di codifica non è affatto impressionato. + Gli agenti solitari e auto-apprendenti sono ancora agli inizi. Ci saranno tra 10 anni. Come sai, gli agenti dimenticano cose, si perdono e non possono correggere i propri errori in modo affidabile ancora. + I flussi di lavoro agentici sono re. I vincitori stanno usando buoni dati di addestramento, cervelli umani e molte iterazioni disordinate. + L'AGI non è un interruttore. È una lunga pendenza. Ci arriveremo poco a poco. + L'affidabilità è tutto. Non hai bisogno di un'AI più intelligente, hai bisogno che non si rompa. + Sta costruendo Eureka Labs—una scuola nativa dell'AI. A ragione, pensa che lo spazio dell'istruzione AI sia una grande opportunità per l'istruzione personalizzata. QUINDI... Se sei un costruttore: Inizia in modo ristretto. Crea co-piloti, non autopiloti. Registra tutto. Addestra sui tuoi dati. Usa strumenti che aggiungono memoria. Sii coinvolto. Se sei un fondatore/dirigente: Scegli 2-3 flussi di lavoro ad alto ROI. Imposta obiettivi di affidabilità per "nove" (come 99,9% o 99,9999%) e finanzia il progresso. Assumi personale per prodotto, ML e operazioni; richiedi dashboard di valutazione in tempo reale. Se sei un operatore: Pilota un processo con SLA e fallback. Tieni traccia della tassonomia degli errori. Mantieni i runbook. Monitora le deviazioni. Tieni gli umani a disposizione per i casi limite. Se sei un investitore: Sostieni team con volani di dati, forti abitudini di valutazione e casi d'uso focalizzati. Cerca automazione specifica per flussi di lavoro, sicurezza, integrazione aziendale... e istruzione nativa dell'AI. Vale sicuramente la pena ascoltarlo se hai tempo.