目前,我们在训练大型语言模型(LLMs)时使用的是人类生成的文本——即我们认知的行为输出。 如果我们跳过中介,直接训练它们预测大脑的隐藏状态呢? 它们会学得更快、更好吗? 我们在完整的节目中讨论了这个想法。