Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
De Top 26 Essentiële Papers (+5 Bonusbronnen)
voor het Beheersen van LLM's en Transformers
Deze lijst overbrugt de fundamenten van de Transformer
met het redeneren, MoE en de agentische verschuiving
Aanbevolen Leesvolgorde
1. Attention Is All You Need (Vaswani et al., 2017)
> Het originele Transformer-paper. Behandelt zelf-aandacht,
> multi-head aandacht en de encoder-decoder structuur
> (ook al zijn de meeste moderne LLM's alleen decoder.)
2. The Illustrated Transformer (Jay Alammar, 2018)
> Geweldige intuïtiebouwer voor het begrijpen van
> aandacht en tensorflow voordat je in implementaties duikt
3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018)
> Fundamentele kennis aan de encoderzijde, gemaskeerd taalmodelleren,
> en representatie leren die nog steeds moderne architecturen vormgeven
4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020)
> Vestigde in-context leren als een echte
> mogelijkheid en verschuiving in hoe prompting wordt begrepen
5. Scaling Laws for Neural Language Models (Kaplan et al., 2020)
> Eerste schone empirische schaalframework voor parameters, data en rekenkracht
> Lees samen met Chinchilla om te begrijpen waarom de meeste modellen ondergetraind waren
6. Training Compute-Optimal Large Language Models (Chinchilla) (Hoffmann et al., 2022)
> Toonde aan dat het aantal tokens belangrijker is dan...
Boven
Positie
Favorieten
