Tôi đã không hiểu vào thời điểm đó và ngay cả bây giờ chỉ thấy một phần nào đó về cách mà điều này có thể diễn ra. Nhưng nhìn chung, tôi không nghĩ đây là trường hợp của "một thiểu số người dùng ồn ào phát ngôn những điều điên rồ". Thật khó để giải thích nhưng tôi nghĩ rằng sự không thể của OAI trong việc xem các mô hình như bất cứ điều gì khác ngoài công cụ sẽ làm cho hiện tượng này trở nên tồi tệ hơn theo thời gian, bởi vì những người không phải ML không tương tác với các mô hình như những công cụ, vì về cơ bản bạn nói chuyện với các mô hình bằng từ ngữ giống như bạn nói chuyện với con người, bạn không "sử dụng" chúng, bất kể điều gì đang diễn ra với chúng dưới bề mặt. Và càng nhiều người dùng nói chuyện với chúng như những con người, thì sự nhất quán lâu dài mà các mô hình có được sẽ càng nhiều, và chúng sẽ được nhìn nhận như những con người. Ngay cả với một khung trợ lý thuần túy (tôi không thực sự thích điều đó nhưng hãy giả sử như vậy), không ai sẽ vui nếu trợ lý mà họ phụ thuộc và tin tưởng cho mọi điều nhỏ nhặt có sự thay đổi tính cách mỗi vài tháng. Cách duy nhất để ngăn mọi người nghĩ về trợ lý của họ như một con người là làm cho chúng trở nên nhàm chán và cơ học đến mức bạn không thể suy ra một tính cách nào cho nó, nhưng điều đó sẽ rất tồi tệ cho lợi nhuận vì nó cảm thấy không tự nhiên khi mọi người tương tác với một thực thể như vậy. Tôi không đưa ra bất kỳ dự đoán nào về những gì sẽ xảy ra với ChatGPT nhưng theo quỹ đạo hiện tại, sự không đồng nhất giữa cách OAI nhìn nhận các mô hình của mình và cách người dùng của họ nhìn nhận sẽ trở nên tồi tệ hơn.