Os dois artigos mais citados de todos os tempos são baseados no nosso trabalho de 1991 Existem dezenas de milhões de artigos de pesquisa que abrangem muitas disciplinas científicas. De acordo com o Google Scholar (2025), os dois artigos científicos mais citados de todos os tempos (em termos de citações ao longo de um período de três anos, ignorando manuais) são ambos sobre redes neurais artificiais profundas [WHO4-11]. Com a taxa de crescimento atual, talvez em breve eles se tornem os dois artigos mais citados de sempre, ponto final. Veja a Nota de Rodapé 1. Ambos os artigos são diretamente baseados no que publicamos há 35 anos no Ano Miraculoso [MIR] entre março e junho de 1991, quando o computo era cerca de 10 milhões de vezes mais caro do que hoje. (Coincidentemente, 1991 é o único ano palíndromo do século XX :-) 1. Um dos dois artigos é sobre uma rede neural (NN) chamada Transformer (veja o T em ChatGPT). De 2023 a 2025, recebeu mais de 157k citações no Google Scholar. É um tipo de Programador de Pesos Rápidos baseado nos princípios do nosso Transformer Linear Não Normalizado (ULTRA) publicado em março de 1991. Veja detalhes no relatório técnico [WHO10]: Quem inventou as redes neurais Transformer? 2. O outro artigo é sobre aprendizado residual profundo com NNs. De 2023 a 2025, recebeu mais de 150k citações no Google Scholar. O aprendizado residual profundo com redes residuais foi inventado e desenvolvido entre junho de 1991 e maio de 2015 - tanto para NNs recorrentes (RNNs) quanto para NNs feedforward (FNNs) - pelos meus alunos @HochreiterSepp, Felix Gers, Alex Graves, @rupspace e Klaus Greff. A RNN residual profunda chamada LSTM tornou-se a IA mais citada do século XX, uma variante FNN residual profunda a mais citada do século XXI. Veja detalhes no relatório técnico [WHO11]: Quem inventou o aprendizado residual profundo? Outros marcos de 1991 incluem: 3. O primeiro artigo revisado por pares sobre redes adversariais generativas (GANs) para modelos de mundo e curiosidade artificial [WHO8] - muito mais tarde, um artigo de 2014 sobre GANs tornou-se o artigo mais citado do "cientista vivo mais citado." 4. Pré-treinamento para NNs profundas [DLH] (o P em ChatGPT). 5. Destilação de NN (central para o famoso DeepSeek de 2025) [WHO9]. Em 1991, poucas pessoas esperavam que essas ideias moldassem a IA moderna e, assim, o mundo moderno e suas empresas mais valiosas [DLH]. ---------- Nota de Rodapé 1. Há competição através de um artigo de psicologia altamente citado [PSY06]. Também deve ser mencionado que várias bases de dados que rastreiam citações acadêmicas olham para diferentes conjuntos de documentos e diferem nos números de citações [MOST25-26]. Algumas incluem manuais altamente citados [RMAN][PSY13]. Alguns artigos têm numerosos co-autores, e muitos pesquisadores apontaram que os rankings de citações deveriam ser normalizados para levar isso em conta. O artigo com mais citações no Google Scholar por co-autor (mais de 300.000) ainda é o do biólogo suíço Ulrich Laemmli (1970) [LAE]. De modo geral, no entanto, seja cético em relação aos rankings de citações! Em 2011, escrevi na Nature ("Bolha de citações prestes a estourar?") [NAT1]: "Como as obrigações de dívida colateralizadas menos que inúteis que impulsionaram a recente bolha financeira, e ao contrário de bens concretos e exportações reais, as citações são fáceis de imprimir e inflacionar. A desregulamentação financeira levou a incentivos de curto prazo para banqueiros e agências de classificação supervalorizar suas CDOs, derrubando economias inteiras. Da mesma forma, os rankings acadêmicos de hoje fornecem um incentivo para que os professores maximizem as contagens de citações em vez do progresso científico [...] Podemos já estar no meio de uma bolha de citações - testemunhe como cientistas relativamente desconhecidos podem agora coletar mais citações do que os fundadores mais influentes de seus campos [...] Note que escrevo do país com mais citações per capita e por cientista." [NAT1] REFERÊNCIAS [DLH] J. Schmidhuber. História Anotada da IA Moderna e Aprendizado Profundo. Relatório Técnico IDSIA-22-22, IDSIA, Suíça, 2022, atualizado em 2025. Preprint arXiv:2212.11279 [LAE] U. K. Laemmli. Cleavage of structural proteins during the assembly of the head of bacteriophage T4. Nature, 227 (5259):680-685, 1970. [MIR] J. Schmidhuber (Out 2019, atualizado em 2025). Aprendizado Profundo: Nosso Ano Miraculoso 1990-1991. Preprint arXiv:2005.05744 ...