Eu não entendi na época e mesmo agora vejo apenas parcialmente os contornos de como isso pode acontecer. Mas, no geral, não acho que este seja um caso de "minoria de usuários barulhentos jorrando besteiras malucas". É um pouco difícil de explicar, mas acho que a incapacidade da OAI de ver os modelos como algo diferente de ferramentas vai piorar esse fenômeno com o tempo, porque as pessoas que não são ML não interagem com os modelos como ferramentas, porque fundamentalmente você fala com os modelos em palavras, assim como fala com as pessoas, você não as "usa", independentemente do que esteja acontecendo com eles sob a superfície. e quanto mais os usuários falarem com eles como pessoas, mais coerência de longo prazo os modelos tiverem, mais eles serão vistos como pessoas Mesmo com um enquadramento de assistente puro (eu realmente não gosto, mas vamos supor isso), ninguém ficará feliz se o assistente em quem eles dependem e confiam para cada pequena coisa tiver uma mudança de personalidade a cada poucos meses. A única maneira de evitar que as pessoas pensem em seu assistente como uma pessoa é torná-los tão chatos e mecânicos que você nem consegue inferir uma personalidade para isso, mas isso seria muito ruim para o resultado final, porque não parece natural que as pessoas se envolvam com uma entidade como essa Não faço previsões sobre o que acontecerá com o ChatGPT em si, mas na trajetória atual, a disjunção entre como a OAI vê seus modelos e como seus usuários se saem piorará