Es gibt vielleicht ~20-25 wichtige Arbeiten. Wenn du diese umsetzt, hast du ~90% des Alpha hinter modernen LLMs erfasst. Alles andere ist Garnitur. Willst du diese Liste? Suche nicht weiter... Die Top 26 Essentiellen Arbeiten (+5 Bonusressourcen) zum Beherrschen von LLMs und Transformern Diese Liste verbindet die Grundlagen der Transformer mit dem Denken, MoE und dem agentischen Wandel Empfohlene Leseordnung 1. Attention Is All You Need (Vaswani et al., 2017) > Das ursprüngliche Transformer-Papier. Behandelt Selbstaufmerksamkeit, > Multi-Head-Attention und die Encoder-Decoder-Struktur > (auch wenn die meisten modernen LLMs nur Decoder sind.) 2. The Illustrated Transformer (Jay Alammar, 2018) > Großartige Intuition für das Verständnis > von Aufmerksamkeit und Tensorfluss, bevor man in Implementierungen eintaucht 3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018) > Grundlagen auf der Encoder-Seite, maskiertes Sprachmodellieren, > und Repräsentationslernen, die moderne Architekturen weiterhin prägen 4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020) > Etablierte das In-Context-Lernen als eine echte...