Arquitecturas inspiradas en la neurociencia para construir una IA verdaderamente adaptativa Los sistemas modernos de IA son potentes pero frágiles. Entrena un modelo, despliégalo y observa cómo el rendimiento se deteriora a medida que el mundo cambia. Si te reentrenas con datos nuevos, el modelo olvida lo que sabía. Este ciclo produce sistemas que destacan en puntos de referencia estáticos pero que luchan por adaptarse de forma continua—algo que la inteligencia biológica gestiona sin esfuerzo. Un ratón puede aprender a encontrar agua en un laberinto novedoso en unos diez intentos, una tasa de aprendizaje mil veces mayor que las tareas tradicionales de laboratorio. Sin embargo, nuestras redes neuronales más sofisticadas sufren un olvido catastrófico cuando se les pide aprender de forma secuencial. El cerebro ofrece una arquitectura diferente. No funciona como una única red enredada, sino como módulos especializados inteligentemente interconectados: bordes de procesamiento de corteza visual, computación en la corteza motora en espacio de fuerzas, regiones prefrontales que rastrean memoria estructurada por tareas. Cada módulo construye modelos internos actualizados mediante errores de predicción cuando los resultados esperados divergen de la realidad. Estas señales de enseñanza se han descubierto ahora en circuitos sensoriales, motores y de recompensa. Mackenzie Weygandt Mathis sintetiza estos conocimientos en una propuesta para la IA agentiva adaptativa. En lugar de perseguir modelos fundamentales monolíticos cada vez mayores, defiende sistemas de codificadores específicos de dominio cuyas salidas se optimizan conjuntamente en un espacio latente compartido. Cada codificador es monitorizado mediante señales de error de predicción: los codificadores robustos permanecen "bloqueados" mientras que los que muestran un rendimiento degradado se "desbloquean" para aprendizaje continuo usando reproducción de memoria o inteligencia sináptica, sin desconectar todo el sistema. El principio más amplio: estructurando la IA en torno a la modularidad inspirada en la neurociencia y la actualización basada en errores en la predicción en lugar de a escala monolítica, se hace posible ir más allá de los modelos estáticos hacia una inteligencia genuinamente adaptativa—sistemas que refinan continuamente sus modelos del mundo a través de la interacción con él. Papel: