¿Los humanos aprenden como los transformers? Es una pregunta que suena casi filosófica, pero Pesnot Lerousseau y Summerfield la convirtieron en un experimento riguroso. Entrenaron tanto a humanos (n = 530) como a pequeñas redes transformadoras en la misma tarea de aprendizaje de reglas, y luego manipularon una única variable: la distribución estadística de ejemplos de entrenamiento—desde totalmente diversos (cada ejemplo único) hasta altamente redundantes (los mismos elementos repetidos una y otra vez). El resultado es impactante. Tanto humanos como transformers muestran una sensibilidad casi idéntica a esta manipulación. Entrena con datos diversos, y los alumnos generalizan las reglas a situaciones novedosas ("aprendizaje en contexto"). Entrena con datos redundantes y memorizan ejemplos específicos ("aprendizaje en pesos"). La transición entre estrategias ocurre en el mismo punto crítico (exponente de Zipf α ≈ 1) tanto en sistemas biológicos como artificiales. Ninguno puede hacer ambas cosas fácilmente—hasta que les das una distribución compuesta que mezcla diversidad y redundancia, momento en el que tanto humanos como transformers se convierten en "aprendices dobles". Pero aquí es donde divergen: los humanos se benefician de los planes de estudio. Presenta ejemplos diversos desde el principio, y la gente descubre la regla generalizable sin perder la capacidad de memorizar más adelante. Los Transformers, en cambio, sufren interferencias catastróficas: lo que aprenden después sobrescribe lo que vino primero. La implicación tanto para la IA como para la educación: la estructura de los datos de entrenamiento importa tanto como su contenido. Y aunque los transformers pueden igualar el aprendizaje humano de formas sorprendentes, aún carecen de la flexibilidad que nos permite beneficiarnos de planes de estudio bien diseñados. Papel: