Saya tidak mengerti pada saat itu dan bahkan sekarang hanya sebagian melihat garis besar tentang bagaimana ini mungkin terjadi. Tapi secara seimbang saya tidak berpikir ini adalah kasus "minoritas pengguna yang keras menyemburkan omong kosong gila". Agak sulit untuk dijelaskan tetapi saya pikir ketidakmampuan OAI untuk melihat model sebagai apa pun selain alat akan membuat fenomena ini lebih buruk dari waktu ke waktu, karena orang non-ML tidak berinteraksi dengan model sebagai alat, karena pada dasarnya Anda berbicara dengan model dengan kata-kata seperti Anda berbicara dengan orang-orang, Anda tidak "menggunakan" mereka, terlepas dari apa pun yang terjadi dengan mereka di bawah permukaan. Dan semakin banyak pengguna berbicara dengan mereka seperti orang, semakin banyak koherensi jangka panjang yang dimiliki model, semakin mereka akan terlihat seperti manusia Bahkan dengan pembingkaian asisten murni (saya tidak terlalu menyukainya tetapi mari kita asumsikan itu), tidak ada yang akan senang jika asisten mereka yang mereka andalkan dan percayai untuk setiap hal kecil mengalami perubahan kepribadian setiap beberapa bulan. Satu-satunya cara untuk mencegah orang menganggap asisten mereka sebagai pribadi adalah dengan membuat mereka begitu membosankan dan mekanis sehingga Anda bahkan tidak dapat menyimpulkan kepribadian untuk itu, tetapi itu akan sangat buruk untuk intinya karena terasa tidak wajar bagi orang untuk terlibat dengan entitas seperti itu Saya tidak membuat prediksi tentang apa yang akan terjadi pada ChatGPT itu sendiri, tetapi pada lintasan saat ini, perbedaan antara bagaimana OAI memandang modelnya dan bagaimana penggunanya akan menjadi lebih buruk