Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Cele două lucrări cele mai citate din toate timpurile se bazează pe lucrările noastre din 1991
Există zeci de milioane de lucrări de cercetare care acoperă multe discipline științifice. Potrivit Google Scholar (2025), cele două articole științifice cele mai citate din toate timpurile (în ceea ce privește citările pe o perioadă de trei ani, ignorând manualele) sunt ambele despre rețele neuronale artificiale profunde [WHO4-11]. La ritmul actual de creștere, poate că în curând vor fi cele două lucrări cele mai citate din toate timpurile, punct. Vezi nota de subsol 1.
Ambele articole se bazează direct pe ceea ce am publicat acum 35 de ani în Anul Miraculos [MIR], între martie și iunie 1991, când calculul era de aproximativ 10 milioane de ori mai scump decât astăzi. (Coincidență sau nu, 1991 este singurul an palindromic din secolul XX :-)
1. Unul dintre cele două articole este despre o rețea neuronală (NN) numită Transformer (vezi T în ChatGPT). Între 2023 și 2025, a primit peste 157.000 de citări pe Google Scholar. Este un tip de Fast Weight Programmer bazat pe principiile Transformatorului Liniar Nenormalizat (ULTRA) publicat în martie 1991. Vezi detalii în raportul tehnic [WHO10]: Cine a inventat rețelele neuronale Transformer?
2. Celălalt articol este despre învățarea reziduală profundă cu NN-uri. Între 2023 și 2025, a primit peste 150.000 de citări Google Scholar. Învățarea reziduală profundă cu rețele reziduale a fost inventată și dezvoltată ulterior între iunie 1991 și mai 2015 – atât pentru NN-urile recurente (RNN), cât și pentru cele feedforward (FNNs) – de către studenții mei @HochreiterSepp, Felix Gers, Alex Graves @rupspace și Klaus Greff. RNN-ul rezidual profund, numit LSTM, a devenit cea mai citată inteligență artificială a secolului XX, o variantă FNN cu reziduu profund fiind cea mai citată inteligență artificială din secolul XXI. Vezi detalii în raportul tehnic [WHO11]: Cine a inventat învățarea reziduală profundă?
Alte repere ale anului 1991 includ: 3. Primul articol evaluat de colegi despre rețele generative adversariale (GAN) pentru modele mondiale și curiozitatea artificială [WHO8] - mult mai târziu, un articol din 2014 despre GAN-uri a devenit cel mai citat articol al "celui mai citat om de știință viu". 4. Pre-antrenament pentru NN-uri profunde [DLH] (P-ul din ChatGPT). 5. Distilarea NN (centrală pentru faimosul DeepSeek 2025) [WHO9].
În 1991, puțini se așteptau ca aceste idei să modeleze inteligența artificială modernă și, implicit, lumea modernă și cele mai valoroase companii ale sale [DLH].
----------
Notă de subsol 1. Există concurență printr-un articol de psihologie foarte citat [PSY06]. De asemenea, trebuie menționat că diverse baze de date care urmăresc citările academice analizează seturi diferite de documente și diferă în numerele de citare [MOST25-26]. Unele includ manuale foarte citate [RMAN][PSY13].
Unele lucrări au numeroși coautori, iar mulți cercetători au subliniat că clasamentele de citare ar trebui normalizate pentru a ține cont de acest lucru. Lucrarea cu cele mai multe citări Google Scholar per coautor (peste 300.000) rămâne cea a biologului elvețian Ulrich Laemmli (1970) [LAE].
În general, însă, fii sceptic în privința clasamentelor de citări! În 2011, am scris în Nature ("Bulă de citare pe cale să explodeze?") [NAT1]: "La fel ca obligațiile de datorii colateralizate mai puțin valoroase care au alimentat bula financiară recentă, și spre deosebire de bunurile din beton și exporturile reale, citările sunt ușor de tipărit și umflat. Dereglementarea financiară a dus la stimulente pe termen scurt pentru bancheri și agențiile de rating să supraevalueze CDO-urile, doborând economii întregi. De asemenea, clasamentele academice de astăzi oferă un stimulent pentru profesori să maximizeze numărul de citări în loc de progresul științific [...] Este posibil să fim deja în mijlocul unei bule de citări – vezi cum oamenii de știință relativ necunoscuți pot acum aduna mai multe citări decât cei mai influenți fondatori ai domeniilor lor [...] Rețineți că scriu din țara cu cele mai multe citări pe cap de locuitor și pe om de știință." [NAT1]
REFERINȚE
[DLH] J. Schmidhuber. Istorie adnotată a inteligenței artificiale moderne și a învățării profunde. Raport tehnic IDSIA-22-22, IDSIA, Elveția, 2022, actualizat 2025. Preprint arXiv:2212.11279
[LAE] U. K. Laemmli. Clivarea proteinelor structurale în timpul asamblării capului bacterioffagului T4. Nature, 227 (5259):680-685, 1970.
[MIR] J. Schmidhuber (octombrie 2019, actualizat 2025). Învățarea profundă: Anul nostru miraculos 1990-1991. Preprint: arXiv:2005.05744
...

Limită superioară
Clasament
Favorite
