Soy un gran fan de los sistemas multiagente, el modelado basado en agentes y la inteligencia social; estos marcos siguen estando muy ausentes en el discurso general de la IA, salvo en algunos puntos poco habituales. Algunas ideas a medio cocinar: 1. Esperar que un modelo haga todo el trabajo, lo resuelva todo, proponga nuevas innovaciones, etc., probablemente no sea correcto. Esto era más o menos la suposición implícita detrás de *algunas* interpretaciones del progreso de capacidades. El 'modelo del genio único' pasa por alto el hecho de que los costes de inferencia y las ventanas de contexto son finitos. 2. Las personas sobrevaloran la inteligencia individual: la mayoría de las innovaciones son producto de organizaciones sociales (cooperación) y dinámicas de mercado (competencia), no de un solo genio genio. Aunque esto último también importa, claro: cuanto más listos sean los agentes, mejor. 3. Todavía hay mucho que exprimir de los modelos, pero creo que tiene más que ver con cómo están organizados. AI Village es una bonita viñeta, y también destaca las muchas formas en que fallan los modelos y lo que hay que arreglar. 4. Una vez que entras en un mundo multiagente, las instituciones y la cultura también empiezan a importar: ¿cuáles son las reglas del juego? ¿Qué se fomenta y qué se castiga? ¿Qué pueden hacer y decir los agentes entre sí? ¿Cómo se resuelven los conflictos? Ha sido interesante ver cómo han surgido algunos protocolos recientemente. ¡Todavía vamos muy pronto! 5. La mayoría de los cambios de *valor* y transformadores que obtendremos de la IA vendrán de productos, no de modelos. Los modelos son la potencia cognitiva bruta, los productos son lo que los hace útiles y adaptados a lo que alguna clase de usuario realmente necesita. Un producto es básicamente el puente entre el potencial bruto y la utilidad específica; de hecho, muchos IDE hoy en día son esencialmente sistemas multiagente cristalizados.