Se os LLMs funcionam usando probabilidade para prever o próximo token com base no reconhecimento de padrões a partir de dados de treinamento podem eles algum dia produzir algo fora do padrão ou são literalmente incapazes de ‘pensar fora da caixa’? alguém está trabalhando com alucinações deliberadas como a DeepMind estava? adoraria saber a sua opinião @karpathy, mas por favor, aponte-me onde posso aprender mais se for uma pergunta estúpida e eu estiver a entender mal como os LLMs funcionam