¿Aprenden los humanos como los transformadores? Es una pregunta que suena casi filosófica, pero Pesnot Lerousseau y Summerfield la convirtieron en un experimento riguroso. Entrenaron tanto a humanos (n = 530) como a pequeñas redes de transformadores en la misma tarea de aprendizaje de reglas, luego manipularon una sola variable: la distribución estadística de los ejemplos de entrenamiento, desde totalmente diversa (cada ejemplo único) hasta altamente redundante (los mismos elementos repetidos una y otra vez). El resultado es sorprendente. Tanto los humanos como los transformadores muestran una sensibilidad casi idéntica a esta manipulación. Entrena con datos diversos, y los aprendices generalizan reglas a situaciones novedosas ("aprendizaje en contexto"). Entrena con datos redundantes, y memorizan ejemplos específicos ("aprendizaje en pesos"). La transición entre estrategias ocurre en el mismo punto crítico (exponente de Zipf α ≈ 1) en ambos sistemas biológicos y artificiales. Ninguno puede hacer fácilmente ambas cosas, hasta que les das una distribución compuesta que mezcla diversidad y redundancia, momento en el cual tanto los humanos como los transformadores se convierten en "aprendices dobles." Pero aquí es donde divergen: los humanos se benefician de los currículos. Presenta ejemplos diversos al principio, y las personas descubren la regla generalizable sin perder la capacidad de memorizar más tarde. Los transformadores, en cambio, sufren interferencia catastrófica: lo que aprenden en segundo lugar sobrescribe lo que vino primero. La implicación para la IA y la educación por igual: la estructura de los datos de entrenamiento importa tanto como su contenido. Y aunque los transformadores pueden igualar el aprendizaje humano de maneras sorprendentes, aún carecen de la flexibilidad que nos permite beneficiarnos de currículos bien diseñados. Artículo: