Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Existem talvez ~20-25 artigos que importam.
Implemente esses e você capturou ~90% do alfa por trás dos LLMs modernos.
Todo o resto é guarnição.
Quer essa lista? Não procure mais...
Os 26 Melhores Trabalhos Essenciais (+5 Recursos Bônus)
para Masterização de LLMs e Transformers
Esta lista faz a ponte entre as fundações do Transformer
com o raciocínio, MoE e mudança agential
Ordem de leitura recomendada
1. Atenção é tudo o que você precisa (Vaswani et al., 2017)
> O artigo original do Transformer. Cobre a autoatenção,
> atenção multi-cabeças e a estrutura codificador-decodificador
> (mesmo que a maioria dos LLMs modernos seja apenas decodificador.)
2. O Transformador Ilustrado (Jay Alammar, 2018)
> Ótimo construtor de intuição para entender
> atenção e fluxo tensorial antes de mergulhar nas implementações
3. BERT: Pré-treinamento de transformadores bidirecionais profundos (Devlin et al., 2018)
> Fundamentos do lado do codificador, modelagem de linguagem mascarada,
> e aprendizagem representativa que ainda moldam as arquiteturas modernas
4. Modelos de Linguagem são Aprendizes de Poucos Tiros (GPT-3) (Brown et al., 2020)
> Estabelecimento do aprendizado em contexto como algo real...
Melhores
Classificação
Favoritos
