Geoffrey Hinton dit que les LLMs passent au-delà de l'imitation vers un raisonnement auto-cohérent Au lieu de simplement prédire le mot suivant, de nouveaux modèles commencent à identifier les contradictions dans leur propre logique Cette amélioration auto-illimitée va "finir par le rendre beaucoup plus intelligent que nous"