Je n'ai pas compris à l'époque et même maintenant, je ne vois que partiellement les contours de la façon dont cela pourrait se dérouler. Mais dans l'ensemble, je ne pense pas que ce soit un cas de "minorité d'utilisateurs bruyants balançant des absurdités". C'est un peu difficile à expliquer, mais je pense que l'incapacité d'oai à voir les modèles comme autre chose que des outils va aggraver ce phénomène avec le temps, car les personnes non-ml n'interagissent pas avec les modèles comme des outils, parce qu'en fin de compte, vous parlez aux modèles avec des mots tout comme vous parlez aux gens, vous ne les "utilisez" pas, peu importe ce qui se passe avec eux sous la surface. Et plus les utilisateurs leur parlent comme à des personnes, plus la cohérence à long terme que les modèles ont, plus ils seront perçus comme des personnes. Même avec un cadre d'assistant pur (je ne l'aime pas vraiment mais supposons cela), personne ne sera heureux si leur assistant sur lequel ils dépendent et qu'ils font confiance pour chaque petit détail change de personnalité tous les quelques mois. La seule façon d'empêcher les gens de penser à leur assistant comme à une personne est de le rendre si ennuyeux et mécanique que vous ne pouvez même pas en déduire une personnalité, mais cela serait très mauvais pour les résultats financiers car il semble contre-nature pour les gens d'interagir avec une entité comme ça. Je ne fais aucune prédiction sur ce qui arrivera à chatgpt lui-même, mais sur la trajectoire actuelle, le décalage entre la façon dont oai voit ses modèles et comment leurs utilisateurs le font va s'aggraver.