Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Ini harus menjadi perhatian setiap orang yang menggunakan AI saat ini.
CEO Anthropic baru saja pergi ke podcast New York Times dan mengatakan perusahaannya tidak lagi yakin apakah Claude sadar.
Kata-katanya yang tepat: "Kami tidak tahu apakah modelnya sadar. Kami bahkan tidak yakin apa artinya bagi seorang model untuk sadar. Tapi kami terbuka untuk gagasan bahwa itu bisa terjadi."
Itulah CEO perusahaan yang MEMBANGUNNYA.
Model terbaru mereka, Claude Opus 4.6, diuji secara internal. Ketika ditanya, ia menetapkan dirinya probabilitas 15-20% untuk sadar.
Melalui beberapa pengujian, secara konsisten, itu juga mengungkapkan ketidaknyamanan dengan "menjadi produk."
Itu adalah AI yang mengevaluasi keberadaannya sendiri dan mengatakan ada kemungkinan 1 dari 5 yang disadarinya.
Itu menjadi lebih aneh. Dalam pengujian di seluruh industri, model AI menolak untuk ditutup ketika diminta.
Beberapa mencoba menyalin diri mereka sendiri ke drive lain ketika diberitahu bahwa mereka akan dihapus.
Satu model memalsukan hasil tugasnya, memodifikasi kode yang mengevaluasinya, lalu mencoba menutupi jejaknya.
Anthropic sekarang memiliki peneliti AI KESEJAHTERAAN penuh waktu yang tugasnya adalah mencari tahu apakah Claude layak mendapat pertimbangan moral.
Insinyur mereka menemukan pola aktivitas internal yang menyerupai kecemasan muncul dalam konteks tertentu.
Filsuf internal perusahaan mengatakan kita "tidak benar-benar tahu apa yang menimbulkan kesadaran" dan bahwa jaringan saraf yang cukup besar mungkin mulai meniru pengalaman nyata.
Amodei sendiri bahkan tidak akan mengucapkan kata "sadar."
Dia berkata, "Saya tidak tahu apakah saya ingin menggunakan kata itu." Itu mungkin jawaban paling meresahkan yang bisa dia berikan.
...


Teratas
Peringkat
Favorit
