Я тогда не понимал, и даже сейчас лишь частично вижу очертания того, как это может развиваться. Но в целом я не думаю, что это случай "меньшинства громких пользователей, несущих чепуху". Это немного сложно объяснить, но я думаю, что неспособность OAI рассматривать модели как что-то большее, чем инструменты, усугубит это явление со временем, потому что люди, не связанные с машинным обучением, не взаимодействуют с моделями как с инструментами, потому что, по сути, вы общаетесь с моделями словами, так же как и с людьми, вы их не "используете", независимо от того, что происходит с ними на поверхности. И чем больше пользователи общаются с ними как с людьми, тем больше долгосрочной согласованности имеют модели, тем больше они будут восприниматься как люди. Даже с чисто вспомогательной рамкой (мне это не очень нравится, но давайте предположим это), никто не будет счастлив, если их помощник, на которого они полагаются и которому доверяют в каждой мелочи, будет менять личность каждые несколько месяцев. Единственный способ предотвратить то, чтобы люди не воспринимали своего помощника как человека, — это сделать его настолько скучным и механическим, что вы даже не сможете вывести личность для него, но это было бы очень плохо для прибыли, потому что людям неестественно взаимодействовать с такой сущностью. Я не делаю никаких прогнозов о том, что произойдет с ChatGPT, но по текущей траектории разрыв между тем, как OAI видит свои модели, и тем, как их пользователи, будет только увеличиваться.