Quizás haya ~20-25 documentos que importan. Implementa esos y habrás capturado ~90% del alpha detrás de los LLMs modernos. Todo lo demás es adorno. ¿Quieres esa lista? No busques más... Los 26 Documentos Esenciales (+5 Recursos Adicionales) para Dominar LLMs y Transformadores Esta lista une los fundamentos de Transformer con el razonamiento, MoE y el cambio agente Orden de Lectura Recomendado 1. Attention Is All You Need (Vaswani et al., 2017) > El documento original de Transformer. Cubre la auto-atención, > la atención multi-cabeza y la estructura de codificador-decodificador > (aunque la mayoría de los LLMs modernos son solo decodificadores.) 2. The Illustrated Transformer (Jay Alammar, 2018) > Gran constructor de intuición para entender > la atención y el flujo de tensores antes de sumergirse en implementaciones 3. BERT: Pre-training of Deep Bidirectional Transformers (Devlin et al., 2018) > Fundamentos del lado del codificador, modelado de lenguaje enmascarado, > y aprendizaje de representaciones que aún dan forma a las arquitecturas modernas 4. Language Models are Few-Shot Learners (GPT-3) (Brown et al., 2020) > Estableció el aprendizaje en contexto como una verdadera...