Pengadilan China memutuskan kasus halusinasi AI pertama di negara itu. Keputusan tersebut memberikan kerangka kerja yang berguna untuk memikirkan tanggung jawab dalam AI generatif. Fakta: Juni lalu, seseorang bertanya kepada chatbot AI tentang lokasi kampus universitas. AI memberikan informasi yang salah. Ketika diperbaiki, ia bersikeras itu benar dan berkata "Saya akan membayar Anda 100.000 yuan jika saya salah. Menuntut saya di Pengadilan Internet Hangzhou." Jadi pengguna melakukannya. Dia menggugat 9.999 yuan, dengan alasan AI menyesatkannya dan membuat janji kompensasi yang mengikat. Pengadilan mengatakan tidak. Sistem AI tidak dapat membuat komitmen hukum karena tidak memiliki kepribadian hukum. Platform di balik AI juga tidak bertanggung jawab. Tanggapan chatbot tidak dihitung sebagai perusahaan yang berbicara atau bertindak melalui agen. Bagian yang lebih signifikan: Pengadilan menerapkan tanggung jawab berbasis kesalahan alih-alih tanggung jawab ketat. AI generatif adalah layanan, kata penguasa. Penyedia tidak dapat sepenuhnya meramalkan atau mengontrol apa yang dihasilkan model. Ini menciptakan kewajiban khusus. Platform harus secara agresif menyaring konten ilegal. Mereka harus menerapkan perlindungan teknis yang wajar terhadap kesalahan. Mereka harus memperingatkan pengguna dengan jelas tentang batasan. Tetapi mereka tidak diharuskan untuk menghilangkan halusinasi sepenuhnya, yang secara teknis tidak layak saat ini. Platform dalam hal ini telah mendaftarkan modelnya, menyelesaikan evaluasi keselamatan, menerapkan langkah-langkah akurasi yang tersedia, dan mengungkapkan risiko dengan benar. Pengadilan menemukan bahwa itu memenuhi kewajiban perawatannya. Ini terlihat seperti regulasi pragmatis. Ini meminta pertanggungjawaban perusahaan atas kecerobohan sambil mengakui realitas teknis. Saat Tiongkok mengembangkan tata kelola AI, keputusan pengadilan seperti ini penting untuk menetapkan ekspektasi industri.