Il y a peut-être ~20-25 articles qui comptent. Implémentez ceux-ci et vous aurez capturé ~90% de l'alpha derrière les LLM modernes. Tout le reste est de la garniture. Vous voulez cette liste ? Ne cherchez plus... Les 26 articles essentiels (+5 ressources bonus) pour maîtriser les LLM et les Transformers Cette liste relie les fondations des Transformers avec le raisonnement, MoE, et le changement agentique Ordre de lecture recommandé 1. Attention Is All You Need (Vaswani et al., 2017) > L'article original sur les Transformers. Couvre l'auto-attention, > l'attention multi-tête, et la structure encodeur-décodeur > (même si la plupart des LLM modernes sont uniquement décodeurs.) 2. The Illustrated Transformer (Jay Alammar, 2018) > Excellente base d'intuition pour comprendre > l'attention et le flux de tenseurs avant de plonger dans les implémentations 3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018) > Fondamentaux côté encodeur, modélisation de langage masqué, > et apprentissage de représentation qui façonnent encore les architectures modernes 4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020) > A établi l'apprentissage en contexte comme une réelle...