Dwa najczęściej cytowane artykuły w historii opierają się na naszej pracy z 1991 roku Istnieją dziesiątki milionów prac badawczych obejmujących wiele dziedzin naukowych. Według Google Scholar (2025), dwa najczęściej cytowane artykuły naukowe w historii (pod względem cytatów w ciągu trzech lat, pomijając podręczniki) dotyczą głębokich sztucznych sieci neuronowych [WHO4-11]. Przy obecnym tempie wzrostu, być może wkrótce będą to dwa najczęściej cytowane artykuły w historii, kropka. Zobacz przypis 1. Oba artykuły są bezpośrednio oparte na tym, co opublikowaliśmy 35 lat temu w Cudownym Roku [MIR] między marcem a czerwcem 1991 roku, kiedy obliczenia były około 10 milionów razy droższe niż dzisiaj. (Przypadkowo, 1991 to jedyny palindromiczny rok XX wieku :-) 1. Jeden z tych dwóch artykułów dotyczy sieci neuronowej (NN) zwanej Transformer (zobacz T w ChatGPT). Od 2023 do 2025 roku otrzymał ponad 157 tys. cytatów w Google Scholar. To rodzaj Programatora Szybkiej Wagi opartego na zasadach naszego Nienormalizowanego Liniowego Transformera (ULTRA) opublikowanego w marcu 1991 roku. Zobacz szczegóły w raporcie technicznym [WHO10]: Kto wynalazł sieci neuronowe Transformer? 2. Drugi artykuł dotyczy głębokiego uczenia się resztkowego z NN. Od 2023 do 2025 roku otrzymał ponad 150 tys. cytatów w Google Scholar. Głębokie uczenie się resztkowe z sieciami resztkowymi zostało wynalezione i dalej rozwijane między czerwcem 1991 a majem 2015 - zarówno dla rekurencyjnych NN (RNN), jak i NN feedforward (FNN) - przez moich studentów @HochreiterSepp, Feliksa Gersa, Alexa Gravesa, @rupspace i Klausa Greffa. Głęboka resztkowa RNN zwana LSTM stała się najczęściej cytowanym AI XX wieku, a głęboka resztkowa FNN wariantem najczęściej cytowanego AI XXI wieku. Zobacz szczegóły w raporcie technicznym [WHO11]: Kto wynalazł głębokie uczenie się resztkowe? Inne kamienie milowe z 1991 roku obejmują: 3. Pierwszy recenzowany artykuł na temat generatywnych sieci adversarialnych (GAN) dla modeli świata i sztucznej ciekawości [WHO8] - znacznie później, artykuł z 2014 roku na temat GAN stał się najczęściej cytowanym artykułem "najczęściej cytowanego żyjącego naukowca." 4. Wstępne uczenie dla głębokich NN [DLH] (P w ChatGPT). 5. Destylacja NN (kluczowa dla słynnego DeepSeek z 2025 roku) [WHO9]. W 1991 roku niewiele osób spodziewało się, że te pomysły ukształtują nowoczesną AI, a tym samym nowoczesny świat i jego najcenniejsze firmy [DLH]. ---------- Przypis 1. Istnieje konkurencja w postaci wysoko cytowanego artykułu z psychologii [PSY06]. Należy również wspomnieć, że różne bazy danych śledzące cytaty akademickie patrzą na różne zestawy dokumentów i różnią się liczbą cytatów [MOST25-26]. Niektóre z nich obejmują wysoko cytowane podręczniki [RMAN][PSY13]. Niektóre artykuły mają wielu współautorów, a wielu badaczy zauważyło, że rankingi cytatów powinny być normalizowane, aby to uwzględnić. Artykuł z największą liczbą cytatów w Google Scholar na współautora (ponad 300 000) to nadal ten autorstwa szwajcarskiego biologa Ulricha Laemmli (1970) [LAE]. Ogólnie rzecz biorąc, jednak bądź sceptyczny wobec rankingów cytatów! W 2011 roku napisałem w Nature ("Bańka cytatów wkrótce pęknie?") [NAT1]: "Jak mniej niż bezwartościowe zabezpieczone długi, które doprowadziły do niedawnej bańki finansowej, a w przeciwieństwie do dóbr materialnych i rzeczywistych eksportów, cytaty są łatwe do drukowania i inflacji. Deregulacja finansowa doprowadziła do krótkoterminowych zachęt dla bankierów i agencji ratingowych do przeszacowywania swoich CDO, co doprowadziło do upadku całych gospodarek. Podobnie, dzisiejsze rankingi akademickie dają zachętę profesorom do maksymalizacji liczby cytatów zamiast postępu naukowego [...] Możemy już być w środku bańki cytatów - świadkiem, jak stosunkowo nieznani naukowcy mogą teraz zbierać więcej cytatów niż najbardziej wpływowi założyciele swoich dziedzin [...] Zauważ, że piszę z kraju z największą liczbą cytatów na mieszkańca i na naukowca." [NAT1] REFERENCJE [DLH] J. Schmidhuber. Annotated History of Modern AI and Deep Learning. Technical Report IDSIA-22-22, IDSIA, Szwajcaria, 2022, zaktualizowane 2025. Preprint arXiv:2212.11279 [LAE] U. K. Laemmli. Cleavage of structural proteins during the assembly of the head of bacteriophage T4. Nature, 227 (5259):680-685, 1970. [MIR] J. Schmidhuber (październik 2019, zaktualizowane 2025). Deep Learning: Nasz Cudowny Rok 1990-1991. Preprint arXiv:2005.05744 ...