Det er kanskje ~20-25 artikler som betyr noe. Implementer du disse, har du fanget ~90 % av alfaen bak moderne LLM-er. Alt annet er garnityr. Vil du ha den listen? Se ikke mer... De 26 viktigste artiklene (+5 bonusressurser) for å mestre LLM-er og transformatorer Denne listen bygger bro mellom Transformer-fundamentene med resonnementet, MoE og agentisk skifte Anbefalt leserekkefølge 1. Oppmerksomhet er alt du trenger (Vaswani et al., 2017) > Det originale Transformer-papiret. Dekker selvoppmerksomhet, > oppmerksomhet med flere hoder, og encoder-decoder-strukturen > (selv om de fleste moderne LLM-er kun er dekoderbaserte.) 2. Den illustrerte transformatoren (Jay Alammar, 2018) > Flott intuisjonsbygger for forståelse > oppmerksomhet og tensorflyt før du dykker inn i implementasjoner 3. BERT: Fortrening av dype toveis transformatorer (Devlin et al., 2018) > Encoder-side grunnleggende prinsipper, maskert språkmodellering, > og representasjonslæring som fortsatt former moderne arkitekturer 4. Språkmodeller er få innlærere (GPT-3) (Brown et al., 2020) > Etablert læring i kontekst som en reell...