受神经科学启发的架构,用于构建真正自适应的AI 现代AI系统强大但脆弱。训练一个模型,部署它,然后观察性能随着世界的变化而下降。对新数据进行再训练,模型却忘记了它所知道的。这一循环产生的系统在静态基准测试中表现出色,但在持续适应方面却挣扎——这是生物智能轻松应对的事情。 一只老鼠可以在大约十次尝试中通过少量学习找到新迷宫中的水,这一学习速度比传统实验室任务快1,000倍。然而,我们最复杂的神经网络在被要求顺序学习时却遭遇灾难性遗忘。 大脑提供了不同的架构。它不是作为一个单一的纠结网络运作,而是作为智能互联的专门模块——视觉皮层处理边缘,运动皮层在力空间中计算,前额叶区域跟踪任务结构化记忆。每个模块通过预测误差更新内部模型,当预期结果与现实偏离时。这些带符号的教学信号现在已在感觉、运动和奖励电路中被发现。 麦肯齐·韦根特·马蒂斯将这些见解综合成一个自适应代理AI的提案。她主张,不是追求越来越大的单一基础模型,而是构建领域特定编码器的系统,其输出在共享潜在空间中共同优化。每个编码器都由预测误差信号监控——稳健的编码器保持“锁定”,而表现下降的编码器则被“解锁”,以便通过记忆重放或突触智能进行持续学习,而无需将整个系统下线。 更广泛的原则是:通过围绕受神经科学启发的模块化和基于预测误差的更新来构建AI,而不是单一规模,可以超越静态模型,朝着真正自适应的智能迈进——这些系统通过与世界的互动不断完善其模型。 论文: