5 trik teratas saya untuk mengurangi halusinasi model: 1. Saat mengumpulkan info, minta AI untuk menandai sumber - dan pisahkan pengumpulan data dari menarik kesimpulan 2. Setiap kali AI membuat kesimpulan, tanyakan apakah itu didasarkan pada data historis, inferensi statistik, atau penalaran bahasa murni 3. Gunakan setidaknya dua model AI untuk memeriksa silang hasil - saya baru-baru ini membaca tentang pengaturan Dewan LLM di mana model saling memperdebatkan untuk mendapatkan jawaban yang lebih baik (ide yang sangat menarik - masih perlu mengujinya sendiri) 4. Ajukan argumen pada kedua ekstrem posisi, lalu putuskan di mana Anda berdiri di spektrum 5. Tanyakan kepada AI: Asumsikan apa yang baru saja Anda katakan salah - di mana kemungkinan besar salah? AI sangat kuat - tetapi penilaian Anda masih merupakan model akhir.