Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Os dois artigos mais citados de todos os tempos são baseados em nosso trabalho de 1991
Existem dezenas de milhões de artigos científicos abrangendo diversas disciplinas científicas. Segundo o Google Scholar (2025), os dois artigos científicos mais citados de todos os tempos (em termos de citações ao longo de um período de três anos, ignorando manuais) são ambos sobre redes neurais artificiais profundas [WHO4-11]. Na taxa de crescimento atual, talvez em breve eles sejam os dois artigos mais citados de todos os tempos, ponto final. Veja a Nota de Rodapé 1.
Ambos os artigos são diretamente baseados no que publicamos há 35 anos no Ano Milagroso [MIR], entre março e junho de 1991, quando o processamento era cerca de 10 milhões de vezes mais caro do que hoje. (Coincidentemente, 1991 é o único ano palindrômico do século XX :-)
1. Um dos dois artigos é sobre uma rede neural (NN) chamada Transformer (veja o T no ChatGPT). De 2023 a 2025, recebeu mais de 157 mil citações no Google Scholar. É um tipo de Programador de Peso Rápido baseado nos princípios do nosso Transformador Linear Não Normalizado (ULTRA) publicado em março de 1991. Veja detalhes no relatório técnico [WHO10]: Quem inventou as redes neurais Transformer?
2. O outro artigo é sobre aprendizado residual profundo com NNs. De 2023 a 2025, recebeu mais de 150 mil citações no Google Scholar. O aprendizado residual profundo com redes residuais foi inventado e desenvolvido entre junho de 1991 e maio de 2015 – tanto para NNs recorrentes (RNNs) quanto para feedforwards (FNNs) – pelos meus alunos @HochreiterSepp, Felix Gers, Alex Graves @rupspace e Klaus Greff. A RNN residual profunda chamada LSTM tornou-se a IA mais citada do século XX, uma variante residual profunda da FNN a IA mais citada do século XXI. Veja detalhes no relatório técnico [WHO11]: Quem inventou o aprendizado residual profundo?
Outros marcos de 1991 incluem: 3. O primeiro artigo revisado por pares sobre redes generativas adversariais (GANs) para modelos mundiais e curiosidade artificial [WHO8] - muito tempo depois, um artigo de 2014 sobre GANs tornou-se o artigo mais citado do "cientista vivo mais citado." 4. Pré-treinamento para NNs profundos [DLH] (o P no ChatGPT). 5. Destilação de NN (central para o famoso DeepSeek de 2025) [WHO9].
Em 1991, poucas pessoas esperavam que essas ideias moldassem a IA moderna e, assim, o mundo moderno e suas empresas mais valiosas [DLH].
----------
Nota de rodapé 1. Há concorrência por meio de um artigo de psicologia altamente citado [PSY06]. Também vale mencionar que vários bancos de dados que acompanham citações acadêmicas analisam diferentes conjuntos de documentos e diferem nos números das citações [MOST25-26]. Alguns incluem manuais altamente citados [RMAN][PSY13].
Alguns artigos têm vários coautores, e muitos pesquisadores apontaram que os rankings de citação devem ser normalizados para levar isso em conta. O artigo com mais citações no Google Scholar por coautor (mais de 300.000) ainda é o do biólogo suíço Ulrich Laemmli (1970) [LAE].
De modo geral, porém, seja cético quanto aos rankings de citações! Em 2011, escrevi na Nature ("Bolha de citações prestes a estourar?") [NAT1]: "Como as obrigações de dívida colateralizadas que não valem nada que impulsionaram a recente bolha financeira, e ao contrário dos bens concretos e das exportações reais, as citações são fáceis de imprimir e inflar. A desregulamentação financeira levou a incentivos de curto prazo para banqueiros e agências de classificação supervalorizarem seus CDOs, derrubando economias inteiras. Da mesma forma, os rankings acadêmicos atuais incentivam os professores a maximizarem a contagem de citações em vez do progresso científico [...] Talvez já estejamos no meio de uma bolha de citações – veja como cientistas relativamente desconhecidos agora conseguem coletar mais citações do que os fundadores mais influentes de suas áreas [...] Note que escrevo do país com mais citações per capita e por cientista." [NAT1]
REFERÊNCIAS
[DLH] J. Schmidhuber. História Anotada da IA Moderna e do Deep Learning. Relatório Técnico IDSIA-22-22, IDSIA, Suíça, 2022, atualizado em 2025. Preprint arXiv:2212.11279
[LAE] U. K. Laemmli. Clivagem de proteínas estruturais durante a montagem da cabeça do bacteriófago T4. Nature, 227 (5259):680-685, 1970.
[MIR] J. Schmidhuber (outubro de 2019, atualizado em 2025). Aprendizado Profundo: Nosso Ano Milagroso 1990-1991. Preprint arXiv:2005.05744
...

Melhores
Classificação
Favoritos
