Os humanos aprendem como os transformers? É uma pergunta que soa quase filosófica, mas Pesnot Lerousseau e Summerfield a transformaram em um experimento rigoroso. Eles treinaram tanto humanos (n = 530) quanto pequenas redes transformadoras na mesma tarefa de aprendizado de regras, e então manipularam uma única variável: a distribuição estatística dos exemplos de treinamento — de totalmente diversos (cada exemplo único) a altamente redundantes (os mesmos itens repetidos repetidamente). O resultado é impressionante. Tanto humanos quanto transformers demonstram sensibilidade quase idêntica a essa manipulação. Treine com dados diversos, e os aprendizes generalizam regras para situações novas ("aprendizado em contexto"). Treine com dados redundantes e eles memorizam exemplos específicos ("aprendizado em pesos"). A transição entre estratégias ocorre no mesmo ponto crítico (expoente de Zipf α ≈ 1) tanto em sistemas biológicos quanto artificiais. Nenhum dos dois pode facilmente fazer ambos — até que você lhes dê uma distribuição composta que mistura diversidade e redundância, momento em que tanto humanos quanto transformers se tornam "aprendizes duplos". Mas é aqui que elas divergem: os humanos se beneficiam dos currículos. Apresente exemplos diversos desde cedo, e as pessoas descobrem a regra generalizável sem perder a capacidade de memorizar depois. Transformers, por outro lado, sofrem interferências catastróficas — o que quer que aprendam em segundo lugar sobrescreva o que veio primeiro. A implicação tanto para IA quanto para educação: a estrutura dos dados de treinamento importa tanto quanto seu conteúdo. E embora os transformers possam igualar o aprendizado humano de maneiras surpreendentes, ainda lhes falta a flexibilidade que nos permite nos beneficiar de currículos bem elaborados. Papel: