我当时并没有理解,甚至现在也只是部分看到了这可能如何发展。但总体来说,我认为这并不是"少数喧闹用户在胡说八道"的情况。这有点难以解释,但我认为OAI无法将模型视为工具以外的任何东西,会随着时间的推移使这种现象变得更糟,因为非机器学习的人不会将模型视为工具,因为从根本上说,你用语言与模型交流,就像你与人交流一样,你并不是"使用"它们,无论它们在表面下发生了什么。用户越是像与人交流那样与它们对话,模型的长期一致性就越强,它们就越会被视为人。 即使在纯助手的框架下(我并不喜欢这种说法,但我们假设如此),如果他们依赖并信任的助手每几个月就有一次性格变化,没人会感到高兴。防止人们将他们的助手视为人的唯一方法是让它们变得如此无聊和机械,以至于你甚至无法推断出它的个性,但这对底线来说是非常糟糕的,因为人们与这样的实体互动会感到不自然。 我对ChatGPT本身将会发生什么没有任何预测,但在当前的轨迹下,OAI对其模型的看法与用户的看法之间的脱节将会加剧。