Je viens de tomber dans un terrier de lapin sur quelque chose appelé l'"Hypothèse de Représentation Platonique" et ça me perturbe. En gros, à mesure que les modèles d'IA deviennent plus grands et plus capables, leurs représentations internes commencent à converger. Les modèles de vision, les modèles de langage, différentes architectures. Ils approchent tous lentement du même modèle sous-jacent de la réalité. Si cela se vérifie, c'est une énorme avancée. Nous pourrions traduire entre les modèles au lieu de traiter chacun comme une boîte noire scellée, réutiliser les gains d'interprétabilité à travers les systèmes, et peut-être aligner les modèles au niveau de la représentation, pas seulement en contrôlant les sorties. L'implication plus folle est philosophique. Peut-être que le SENS n'est pas juste une convention humaine. Peut-être qu'il existe des coordonnées naturelles dans la réalité et que des apprenants suffisamment puissants continuent de les redécouvrir. Alors, qu'est-ce qui pousse réellement la convergence ? Les données, l'objectif, un certain biais de simplicité profonde ? Et où cela se casse-t-il ?