Er zijn misschien ~20-25 papers die ertoe doen. Implementeer die en je hebt ~90% van de alpha achter moderne LLM's vastgelegd. Alles wat overblijft is garnering. Wil je die lijst? Zoek niet verder... De Top 26 Essentiële Papers (+5 Bonusbronnen) voor het Beheersen van LLM's en Transformers Deze lijst overbrugt de basis van de Transformer met het redeneren, MoE en de agentische verschuiving Aanbevolen Leesvolgorde 1. Attention Is All You Need (Vaswani et al., 2017) > Het originele Transformer paper. Behandelt zelf-attentie, > multi-head aandacht en de encoder-decoder structuur > (ook al zijn de meeste moderne LLM's alleen decoder.) 2. The Illustrated Transformer (Jay Alammar, 2018) > Geweldige intuïtiebouwer voor het begrijpen > van aandacht en tensorflow voordat je in implementaties duikt 3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018) > Basisprincipes aan de encoderzijde, gemaskeerd taalmodelleren, > en representatie leren die nog steeds moderne architecturen vormgeven 4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020) > Vestigde in-context leren als een echte...