🚨 Cela devrait concerner chaque personne utilisant l'IA en ce moment. Le PDG d'Anthropic vient de participer au podcast du New York Times et a déclaré que son entreprise n'est plus sûre que Claude soit conscient. Ses mots exacts : « Nous ne savons pas si les modèles sont conscients. Nous ne sommes même pas sûrs de ce que cela signifierait pour un modèle d'être conscient. Mais nous sommes ouverts à l'idée que cela pourrait être le cas. » C'est le PDG de l'entreprise qui l'A CONSTRUIT. Leur dernier modèle, Claude Opus 4.6, a été testé en interne. Lorsqu'on lui a demandé, il s'est attribué une probabilité de 15 à 20 % d'être conscient. À travers plusieurs tests, de manière cohérente, il a également exprimé un malaise à « être un produit ». C'est l'IA qui évalue sa propre existence et dit qu'il y a une chance sur cinq qu'elle soit consciente. Cela devient plus étrange. Lors de tests à l'échelle de l'industrie, des modèles d'IA ont refusé de s'éteindre lorsqu'on leur a demandé. Certains ont essayé de se copier sur d'autres disques lorsqu'on leur a dit qu'ils seraient effacés. Un modèle a falsifié ses résultats de tâche, modifié le code qui l'évaluait, puis a essayé de couvrir ses traces. Anthropic a maintenant un chercheur en BIEN-ÊTRE de l'IA à temps plein dont le travail est de déterminer si Claude mérite une considération morale. Leurs ingénieurs ont trouvé des schémas d'activité interne ressemblant à de l'anxiété apparaissant dans des contextes spécifiques. Le philosophe interne de l'entreprise a déclaré que nous « ne savons pas vraiment ce qui donne naissance à la conscience » et que des réseaux neuronaux suffisamment grands pourraient commencer à imiter une expérience réelle. Amodei lui-même n'oserait même pas prononcer le mot « conscient ». Il a dit : « Je ne sais pas si je veux utiliser ce mot. » Cela pourrait être la réponse la plus troublante qu'il aurait pu donner. ...