热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
AK 建议你跟LLM(大语言模型)对话时,少用“你”怎么看,而是先问问这个领域的专家都是谁,然后让 AI 模拟这个领域的专家回答问题,这样能得到更好的效果。
2年多前Andrej Karpathy在State of GPT也说过类似的话。(见评论)
Andrej Karpathy:
千万别把 大语言模型 (LLMs) 当作是一个个活生生的“实体”,要把它们看作是超级强大的“模拟器”。
举个例子,当你想要深入探索某个话题时,千万别问:
“关于 xyz,你怎么看?”
因为根本就不存在什么“你”。
下次试试换个问法:
“如果要探讨 xyz 这个话题,最合适的一群人(比如专家或利益相关者)会是谁?他们会说些什么?”
大语言模型可以信手拈来地引导和模拟各种各样的视角。但它并不像我们人类那样,是经过长时间对 xyz 的“思考”和沉淀,才形成自己的观点的。
如果你非要用“你”这个词去强行提问,模型就会被迫根据它 微调 (finetuning) 数据的统计规律,调用一种隐含的“人格嵌入向量 (personality embedding vector)”,然后扮演这种人格来给你模拟一个答案。 (注释:简单来说,当你问“你”时,AI 只是根据训练数据中最常见的回答模式,戴上了一个“大众脸”的面具来配合你,而不是它真的产生了一个拥有自我意识的人格。)
这样做当然没问题,你也能得到答案。但我发现很多人天真地把这归结为“去问问 AI 怎么想”,觉得这事儿特玄乎。其实一旦你明白了它是如何模拟的,这层神秘的面纱也就被揭开了。
热门
排行
收藏

