Recentemente, descobriu-se que os LLMs codificam diferentes línguas de maneiras semelhantes, uma espécie de representação platónica das palavras. Agora estende-se à ciência:: 60 modelos de ML para moléculas, materiais e proteínas (todos com diferentes treinamentos) convergem para uma codificação semelhante da estrutura molecular
Isto não funciona em estruturas fora da distribuição, portanto, os dados de treino ainda são limitados. Artigo:
42