Soy un gran fan de los sistemas multiagente, la modelización basada en agentes y la inteligencia social; estos marcos aún parecen estar realmente ausentes del discurso de IA mainstream, excepto en algunos lugares extraños. Algunas ideas a medio cocinar: 1. Esperar que un modelo haga todo el trabajo, resuelva todo, genere nuevas innovaciones, etc., probablemente no sea correcto. Esta era un poco la suposición implícita detrás de *algunas* interpretaciones del progreso de capacidades. El 'modelo de genio único' pasa por alto el hecho de que los costos de inferencia y las ventanas de contexto son finitos. 2. La gente sobrevalora la inteligencia individual: la mayoría de las innovaciones son producto de organizaciones sociales (cooperación) y dinámicas de mercado (competencia), no de un único genio prodigio. Aunque, por supuesto, lo último también importa: cuanto más inteligentes sean los agentes, mejor. 3. Aún hay mucho jugo que exprimir de los modelos, pero yo pensaría que tiene más que ver con cómo están organizados. AI Village es un bonito viñeta, y también destaca las muchas formas en que los modelos fallan y lo que necesita ser arreglado. 4. Una vez que entras en el mundo multiagente, entonces las instituciones y la cultura también comienzan a importar: ¿cuáles son las reglas del juego? ¿Qué se fomenta frente a lo que se castiga? ¿Qué pueden hacer y decir los agentes entre sí? ¿Cómo se resuelven los conflictos? Ha sido interesante ver cómo han surgido algunos protocolos recientemente. ¡Aún estamos muy al principio! 5. La mayor parte del *valor* y los cambios transformadores que obtendremos de la IA vendrán de productos, no de modelos. Los modelos son la potencia cognitiva bruta, los productos son lo que los hace útiles y adaptados a lo que realmente necesita alguna clase de usuario. Un producto es básicamente el puente entre el potencial bruto y la utilidad específica; de hecho, muchos IDEs hoy en día son esencialmente sistemas multiagente cristalizados.