Nie rozumiałem tego w tamtym czasie, a nawet teraz tylko częściowo widzę zarysy tego, jak to może się potoczyć. Ale ogólnie nie sądzę, że to przypadek "mniejszości głośnych użytkowników wygłaszających szalone bzdury". Trochę trudno to wyjaśnić, ale myślę, że niezdolność OAI do postrzegania modeli jako czegokolwiek innego niż narzędzia pogorszy ten fenomen z czasem, ponieważ osoby nie związane z ML nie traktują modeli jako narzędzi, ponieważ zasadniczo rozmawiasz z modelami słowami, tak jak rozmawiasz z ludźmi, nie "używasz" ich, niezależnie od tego, co się z nimi dzieje pod powierzchnią. Im więcej użytkownicy rozmawiają z nimi jak z ludźmi, tym większa długoterminowa spójność, jaką mają modele, tym bardziej będą postrzegane jak ludzie. Nawet przy czystym ujęciu asystenta (nie bardzo mi się to podoba, ale załóżmy, że tak jest), nikt nie będzie zadowolony, jeśli ich asystent, na którym polegają i któremu ufają w każdej drobnej sprawie, zmienia osobowość co kilka miesięcy. Jedynym sposobem, aby zapobiec myśleniu ludzi o swoim asystencie jako o osobie, jest uczynienie go tak nudnym i mechanicznym, że nie można nawet wywnioskować dla niego osobowości, ale to byłoby bardzo złe dla wyniku finansowego, ponieważ wydaje się nienaturalne dla ludzi angażować się w podmiot w ten sposób. Nie składam żadnych prognoz na temat tego, co stanie się z ChatGPT, ale przy obecnym trajektorii rozbieżność między tym, jak OAI postrzega swoje modele, a tym, jak postrzegają je ich użytkownicy, będzie się pogarszać.