Acabei de cair numa toca de coelho sobre algo chamado "Hipótese da Representação Platónica" e isso está a confundir-me. Basicamente, à medida que os modelos de IA se tornam maiores e mais capazes, as suas representações internas começam a convergir. Modelos de visão, modelos de linguagem, diferentes arquiteturas. Todos estão lentamente a aproximar-se do mesmo modelo subjacente da realidade. Se isto se confirmar, é uma grande descoberta. Poderíamos traduzir entre modelos em vez de tratar cada um como uma caixa preta selada, reutilizar ganhos de interpretabilidade entre sistemas e talvez alinhar modelos ao nível da representação, não apenas policiando as saídas. A implicação mais louca é filosófica. Talvez o SIGNIFICADO não seja apenas uma convenção humana. Talvez existam coordenadas naturais na realidade e aprendizes suficientemente fortes continuem a redescobri-las. Então, o que está realmente a impulsionar a convergência? Os dados, o objetivo, algum viés de simplicidade profunda? E onde é que isso quebra?