Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NOVO ARTIGO: LLMs são incríveis em explicar coisas e péssimos em fazê-las.
Pergunte a um modelo "como" comparar dois decimais, e ele vai te dar um algoritmo perfeito passo a passo.
Peça para ele realmente "fazer" a comparação... e de repente "9.11 é maior que 9.9 porque 90 é mais que 11."
Pesquisadores chamam isso de "síndrome computacional do cérebro dividido". LLMs desenvolvem um caminho para explicar um procedimento e um caminho completamente diferente para executá-lo.
Esses dois caminhos vivem em partes diferentes da geometria do modelo (como mostrado nos gráficos t-SNE nas páginas 14–16 deste artigo) e eles não se comunicam.
É por isso que um modelo pode ensinar divisão longa, mas não consegue fazer isso de forma confiável.
Ou por que pode articular regras lógicas mas falhar na inferência básica.
Ou por que produz linguagem impecável e raciocínio frágil.
A explicação é a lembrança de padrões.
Execução é computação.
LLMs se destacam no primeiro e têm dificuldades fundamentais no segundo.
No fundo da arquitetura, os embeddings confundem significados que os humanos mantêm separados.
O artigo dá um exemplo hilário: "9.11" se aproxima mais de "11 de setembro" do que de "nove vírgula onze", porque as incorporações de tokens são médias em todos os contextos que já viram. Essa "contaminação contextual" torna impossível o raciocínio simbólico limpo.
Além disso...
Transformadores só conseguem produzir "médias ponderadas" do que viram. Eles não conseguem gerar novos valores simbólicos como "3354" a partir de "43 × 78" usando matemática real.
...

Melhores
Classificação
Favoritos
