Grande fan dei sistemi multi-agente, della modellazione basata su agenti e dell'intelligenza sociale - questi ambiti sembrano ancora davvero assenti nel discorso mainstream sull'AI, tranne che in alcuni posti isolati. Alcuni pensieri poco elaborati: 1. Aspettarsi che un modello faccia tutto il lavoro, risolva ogni cosa, proponga nuove innovazioni, ecc. probabilmente non è corretto. Questa era un po' l'assunzione implicita dietro *alcune* interpretazioni del progresso delle capacità. Il 'modello del genio solitario' ignora il fatto che i costi di inferenza e le finestre di contesto sono finiti. 2. Le persone sovrastimano l'intelligenza individuale: la maggior parte delle innovazioni è il prodotto di organizzazioni sociali (cooperazione) e dinamiche di mercato (competizione), non di un singolo genio savant. Anche se quest'ultimo conta, ovviamente: più gli agenti sono intelligenti, meglio è. 3. C'è ancora molto da spremere dai modelli, ma penso che abbia più a che fare con come sono organizzati. AI Village è un bel racconto e mette in evidenza anche i molti modi in cui i modelli falliscono e cosa deve essere corretto. 4. Una volta che entri nel mondo multi-agente, anche le istituzioni e la cultura iniziano a contare: quali sono le regole del gioco? Cosa è incoraggiato rispetto a cosa è punito? Cosa possono fare e dire gli agenti tra di loro? Come vengono risolti i conflitti? È stato interessante vedere come alcuni protocolli siano emersi di recente. Siamo ancora molto all'inizio! 5. La maggior parte del *valore* e dei cambiamenti trasformativi che otterremo dall'AI verranno dai prodotti, non dai modelli. I modelli sono la potenza cognitiva grezza, i prodotti sono ciò che li rende utili e adattati a ciò di cui una certa classe di utenti ha realmente bisogno. Un prodotto è fondamentalmente il ponte tra il potenziale grezzo e l'utilità specifica; infatti, molti IDE oggi sono essenzialmente sistemi multi-agente cristallizzati.