Arquitecturas inspiradas en la neurociencia para construir IA verdaderamente adaptativa Los sistemas de IA modernos son potentes pero frágiles. Entrena un modelo, despliega, y observa cómo el rendimiento se degrada a medida que el mundo cambia. Vuelve a entrenar con nuevos datos, y el modelo olvida lo que sabía. Este ciclo produce sistemas que sobresalen en benchmarks estáticos pero luchan con la adaptación continua, algo que la inteligencia biológica maneja sin esfuerzo. Un ratón puede aprender en pocas tomas a encontrar agua en un laberinto novedoso en aproximadamente diez intentos, una tasa de aprendizaje 1,000 veces más rápida que las tareas tradicionales de laboratorio. Sin embargo, nuestras redes neuronales más sofisticadas sufren un olvido catastrófico cuando se les pide aprender secuencialmente. El cerebro ofrece una arquitectura diferente. No opera como una única red enredada, sino como módulos especializados interconectados de manera inteligente: la corteza visual procesa bordes, la corteza motora calcula en el espacio de fuerzas, y las regiones prefrontales rastrean la memoria estructurada por tareas. Cada módulo construye modelos internos actualizados a través de errores de predicción cuando los resultados esperados divergen de la realidad. Estas señales de enseñanza firmadas se han descubierto ahora en circuitos sensoriales, motores y de recompensa. Mackenzie Weygandt Mathis sintetiza estas ideas en una propuesta para una IA agente adaptativa. En lugar de perseguir modelos de base monolíticos cada vez más grandes, argumenta a favor de sistemas de codificadores específicos de dominio cuyos resultados se optimizan conjuntamente en un espacio latente compartido. Cada codificador es monitoreado por señales de error de predicción: los codificadores robustos permanecen "bloqueados" mientras que aquellos que muestran un rendimiento degradado son "desbloqueados" para el aprendizaje continuo utilizando la repetición de memoria o inteligencia sináptica, sin llevar todo el sistema fuera de línea. El principio más amplio: al estructurar la IA en torno a la modularidad inspirada en la neurociencia y la actualización basada en errores de predicción en lugar de la escala monolítica, se vuelve posible avanzar más allá de los modelos estáticos hacia una inteligencia genuinamente adaptativa: sistemas que refinan continuamente sus modelos del mundo a través de la interacción con él. Artículo: