Đừng nghĩ về LLM như là những thực thể mà hãy coi chúng như là những mô phỏng. Ví dụ, khi khám phá một chủ đề, đừng hỏi: "Bạn nghĩ gì về xyz"? Không có "bạn" ở đây. Lần sau hãy thử: "Một nhóm người tốt để khám phá xyz sẽ là ai? Họ sẽ nói gì?" LLM có thể kênh/mô phỏng nhiều quan điểm nhưng nó không "đã nghĩ về" xyz trong một thời gian và theo thời gian đã hình thành ý kiến riêng của nó theo cách mà chúng ta thường quen. Nếu bạn ép nó bằng cách sử dụng "bạn", nó sẽ đưa ra một cái gì đó bằng cách áp dụng một vector nhúng tính cách được ngụ ý bởi thống kê của dữ liệu tinh chỉnh của nó và sau đó mô phỏng điều đó. Điều đó cũng ổn, nhưng có ít điều huyền bí hơn nhiều so với những gì tôi thấy mọi người ngây thơ gán cho "hỏi một AI".