小脑变得更聪明的案例:@SentientAGI 的实验结果 “模型越大越聪明”的观念正在被Sentient打破。 在LiveCodeBenchPro基准测试中,参数为7~14B,学习数据仅为20%(可以认为只学习了少量数据)的Dobby-CP模型 在中等难度问题的通过率上与GPT级超大型模型相当。 这证明了在传统的简单测试中获得的分数并不能保证实际的问题解决能力。 Sentient的核心技术ROMA框架在实现这种性能方面发挥了重要作用。 ROMA框架将复杂任务分解为小步骤并进行并行处理。 在节省50~80%的推理成本的同时,达到了比GPT更高的准确度。 这一结果用数字证明了数据的质量以及模型的理解和学习能力在智力上起着决定性作用,而不是简单的模型体积。 --- Sentient研究团队成功实现了在模型内部嵌入25,000个指纹的OML 1.0,且没有性能下降。 社区的反应也表明,随着AI的增大,变得愚蠢的说法开始出现。 这可以与人脑以20W的功率进行高维推理的效率进行比较。 总之,尽管Sentient是一个小模型,但它展示了以更高的效率表现出更高智力的怪物般的AI。