Los dos artículos más citados de todos los tiempos se basan en nuestro trabajo de 1991 Hay decenas de millones de artículos de investigación que abarcan muchas disciplinas científicas. Según Google Scholar (2025), los dos artículos científicos más citados de todos los tiempos (en términos de citas durante un periodo de tres años, ignorando manuales) tratan ambos sobre redes neuronales artificiales profundas [WHO4-11]. Al ritmo de crecimiento actual, quizá pronto sean los dos artículos más citados de la historia, punto. Véase la Nota al pie 1. Ambos artículos se basan directamente en lo que publicamos hace 35 años en el Año Milagroso [MIR] entre marzo y junio de 1991, cuando el cálculo era unas 10 millones de veces más caro que hoy. (Casualmente, 1991 es el único año palindrómico del siglo XX :-) 1. Uno de los dos artículos trata sobre una red neuronal (NN) llamada Transformer (véase la T en ChatGPT). De 2023 a 2025, recibió más de 157.000 citas en Google Scholar. Es un tipo de Programador de Peso Rápido basado en los principios de nuestro Transformador Lineal No Normalizado (ULTRA) publicado en marzo de 1991. Ver detalles en el informe técnico [WHO10]: ¿Quién inventó las redes neuronales Transformer? 2. El otro artículo trata sobre el aprendizaje residual profundo con NNs. De 2023 a 2025, recibió más de 150.000 citas en Google Scholar. El aprendizaje residual profundo con redes residuales fue inventado y desarrollado entre junio de 1991 y mayo de 2015 —tanto para las NNs recurrentes (RNNs) como para las NNs feedforward (FNNs)— por mis alumnos @HochreiterSepp, Felix Gers, Alex Graves @rupspace y Klaus Greff. La RNN residual profunda llamada LSTM se convirtió en la IA más citada del siglo XX, una variante residual profunda de FNN la IA más citada del siglo XXI. Ver detalles en el informe técnico [WHO11]: ¿Quién inventó el aprendizaje residual profundo? Otros hitos de 1991 incluyen: 3. El primer artículo revisado por pares sobre redes generativas adversariales (GANs) para modelos mundiales y curiosidad artificial [WHO8] - mucho después, un artículo de 2014 sobre GANs se convirtió en el más citado del "científico vivo más citado". 4. Preentrenamiento para NNs profundos [DLH] (la P en ChatGPT). 5. Destilación de NN (central para el famoso DeepSeek de 2025) [WHO9]. En 1991, pocas personas esperaban que estas ideas moldearan la IA moderna y, por tanto, el mundo moderno y sus empresas más valiosas [DLH]. ---------- Nota al pie 1. Existe competencia gracias a un artículo de psicología muy citado [PSY06]. También cabe mencionar que diversas bases de datos que rastrean citas académicas analizan diferentes conjuntos de documentos y difieren en los números de cita [MOST25-26]. Algunos incluyen manuales muy citados [RMAN][PSY13]. Algunos artículos cuentan con numerosos coautores, y muchos investigadores han señalado que las clasificaciones de citas deberían normalizarse para tener esto en cuenta. El artículo con más citas en Google Scholar por coautor (más de 300.000) sigue siendo el del biólogo suizo Ulrich Laemmli (1970) [LAE]. En términos generales, sé escéptico respecto a las clasificaciones de citas. En 2011, escribí en Nature ("¿Burbuja de citas a punto de estallar?") [NAT1]: "Como las obligaciones de deuda colateralizada que no valen nada que impulsaron la reciente burbuja financiera, y a diferencia de los bienes de hormigón y las exportaciones reales, las citas son fáciles de imprimir e inflar. La desregulación financiera llevó a incentivos a corto plazo para que banqueros y agencias de calificación sobrevaloraran sus CDOs, derribando economías enteras. Del mismo modo, los rankings académicos actuales incentivan a los profesores a maximizar el número de citas en lugar de avanzar científicamente [...] Puede que ya estemos en medio de una burbuja de citas —fíjate cómo científicos relativamente desconocidos pueden ahora recopilar más citas que los fundadores más influyentes de sus campos [...] Cabe señalar que escribo desde el país con más citas per cápita y por científico." [NAT1] REFERENCIAS [DLH] J. Schmidhuber. Historia anotada de la IA moderna y el aprendizaje profundo. Informe técnico IDSIA-22-22, IDSIA, Suiza, 2022, actualizado 2025. Preprint arXiv:2212.11279 [LAE] U. K. Laemmli. Escisión de proteínas estructurales durante el ensamblaje de la cabeza del bacteriófago T4. Nature, 227 (5259):680-685, 1970. [MIR] J. Schmidhuber (octubre 2019, actualizado 2025). Aprendizaje profundo: Nuestro año milagroso 1990-1991. Preprint arXiv:2005.05744 ...