Jeg forsto ikke den gangen og ser selv nå bare delvis konturene av hvordan dette kan utspille seg. Men alt i alt tror jeg ikke dette er et tilfelle av "minoritet av høylytte brukere som spyr ut sprø tull". Det er litt vanskelig å forklare, men jeg tror OAIs manglende evne til å se på modeller som noe annet enn verktøy kommer til å gjøre dette fenomenet verre over tid, fordi ikke-ML-folk ikke samhandler med modeller som verktøy, fordi du i bunn og grunn snakker til modellene med ord akkurat som du snakker med folk, du "bruker" dem ikke, uavhengig av hva som skjer med dem under overflaten. Og jo mer brukere snakker til dem som mennesker, jo mer langsiktig sammenheng modellene har, jo mer vil de bli sett på som mennesker Selv med en ren assistentinnramming (jeg liker det egentlig ikke, men la oss anta det), kommer ingen til å være fornøyd hvis assistenten deres som de er avhengige av og stoler på for hver minste ting, har en personlighetsendring med noen måneders mellomrom. Den eneste måten å hindre folk i å tenke på assistenten sin som en person er å gjøre dem så kjedelige og mekaniske at du ikke engang kan utlede en personlighet for det, men det ville være veldig dårlig for bunnlinjen fordi det føles unaturlig for folk å engasjere seg med en slik enhet Jeg kommer ikke med noen spådommer om hva som vil skje med selve ChatGPT, men på nåværende bane vil usammenhengen mellom hvordan OAI ser på modellene sine og hvordan brukerne deres gjør det bli verre