Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jürgen Schmidhuber
A inventat principiile meta-învățării (1987), GAN (1990), Transformers (1991), învățare foarte profundă (1991) etc. Inteligența noastră artificială este folosită de multe miliarde de ori în fiecare zi.
IA fizică acum 10 ani: bebelușul robot își inventează propriile experimente pentru a-și îmbunătăți modelul lumii neuronale
Kompella, Stollenga, Luciw, Schmidhuber. Dobândirea continuă de abilități bazate pe curiozitate din intrări video de înaltă dimensiune pentru roboți umanoizi. Inteligența artificială, 2015

10,55K
acum 1 deceniu: Inginer prompt de învățare prin întărire în Sec. 5.3 din "Învățarea de a gândi ..." [2]. Lanțul de gândire adaptiv! O rețea RL învață să interogheze o altă rețea pentru raționament abstract și luare a deciziilor. Depășind modelul mondial din 1990 pentru planificarea milisecundă cu milisecundă [1].
[2] J. Schmidhuber (JS, 2015). «Despre învățarea gândirii: teoria informației algoritmice pentru noi combinații de controlere RL și modele recurente ale lumii neuronale.» ArXiv 1210.0118
[1] JS (1990). "Făcând lumea diferențiabilă: Despre utilizarea rețelelor neuronale auto-supravegheate complet recurente pentru învățarea și planificarea prin întărire dinamică în medii non-staționare." TR FKI-126-90, TUM. (Acest raport a introdus, de asemenea, curiozitatea artificială și motivația intrinsecă prin rețele generative adversare.)

23,39K
În urmă cu 10 ani, în mai 2015, am publicat primele rețele neuronale bazate pe gradient foarte profund (FNN) cu sute de straturi (FNN-urile anterioare aveau maximum câteva zeci de straturi). Pentru a depăși problema gradientului de dispariție, rețelele noastre de autostrăzi au folosit conexiunile reziduale introduse pentru prima dată în 1991 de @HochreiterSepp pentru a obține un flux constant de eroare în NN-urile recurente (RNN), închise prin porți multiplicative similare cu porțile de uitare (Gers et al., 1999) ale RNN-ului nostru LSTM foarte profund. Highway NN-uri au fost posibile datorită muncii foștilor mei doctoranzi @rupspace și Klaus Greff. Setarea porților Highway NN la 1.0 ne oferă efectiv ResNet publicat 7 luni mai târziu.
Învățarea profundă se referă la profunzimea NN. LSTM-urile au adus profunzime nelimitată NN-urilor recurente; Highway Nets l-a adus la NN-urile feedforward.
20,58K
1991: prima distilare a rețelei neuronale [1-3]. Am numit-o "prăbușire", pe atunci, nu "distilare".
Referinţe
[1] J. Schmidhuber (1991). Fragmente de secvențe neuronale. Raport tehnic FKI-148-91, Tech Univ. München. Secțiunea 3.2.2. 4 sunt despre "prăbușirea" sau "distilarea" sau "comprimarea" cunoștințelor unei rețele neuronale într-o altă rețea neuronală.
[2] JS (1992). Învățarea secvențelor complexe și extinse folosind principiul compresiei istoriei. Calcul neuronal, 4(2):234-242, 1992. Bazat pe [1].
[3] JS (AI Blog, 2021, actualizat în 2025). 1991: Prima învățare foarte profundă cu pre-instruire nesupravegheată. Prima distilare a rețelei neuronale.

16,07K
Toată lumea vorbește despre auto-îmbunătățire recursivă și despre mașinile Gödel acum și despre cum acest lucru va duce la AGI. Ce schimbare față de acum 15 ani! Am avut AGI'2010 în Lugano și am prezidat AGI'2011 la Google. Coloana vertebrală a conferințelor AGI a fost IA universală optimă din punct de vedere matematic: Mașina Gödel din 2003 (și AIXI a lui @mhutter42 - vezi cartea sa UAI din 2005 și recenta sa actualizare din 2024 ( Sunt mândru că munca AIXI a lui Marcus Hutter a fost finanțată de grantul meu SNF elvețian din 2000 când era postdoc la IDSIA.

57,03K
AGI? O zi, dar nu încă. Singura inteligență artificială care funcționează bine în acest moment este cea din spatele ecranului [12-17]. Dar trecerea testului Turing [9] în spatele unui ecran este ușoară în comparație cu IA reală pentru roboții reali din lumea reală. Niciun robot actual condus de inteligență artificială nu ar putea fi certificat ca instalator [13-17]. Prin urmare, testul Turing nu este o măsură bună a inteligenței (și nici IQ-ul). Iar AGI fără stăpânirea lumii fizice nu este AGI. De aceea am creat TUM CogBotLab pentru roboți de învățare în 2004 [5], am co-fondat o companie pentru AI în lumea fizică în 2014 [6] și am avut echipe la TUM, IDSIA și acum KAUST care lucrează la roboți pentru copii [4,10-11,18]. Astfel de roboți moi nu doar imită oamenii și nu funcționează doar descărcând web-ul ca LLM-urile/VLM-urile. În schimb, ei exploatează principiile curiozității artificiale pentru a-și îmbunătăți modelele neuronale ale lumii (doi termeni pe care i-am folosit în 1990 [1-4]). Acești roboți lucrează cu o mulțime de senzori, dar doar cu actuatori slabi, astfel încât nu se pot răni cu ușurință atunci când colectează date utile prin conceperea și rularea propriilor experimente inventate de ei înșiși.
În mod remarcabil, începând cu anii 1970, mulți au râs de vechiul meu obiectiv de a construi un AGI mai inteligent decât mine și apoi să mă pensionez. Recent, totuși, mulți au început în sfârșit să ia acest lucru în serios, iar acum unii dintre ei sunt brusc prea optimiști. Acești oameni sunt adesea inconștienți de provocările rămase pe care trebuie să le rezolvăm pentru a obține o inteligență artificială reală. Discursul meu TED din 2024 [15] rezumă o parte din asta.
REFERINȚE (ușor de găsit pe web):
[1] J. Schmidhuber. Face lumea diferențiabilă: Despre utilizarea rețelelor neuronale autosupravegheate (NN) complet recurente pentru învățarea și planificarea prin întărire dinamică în medii non-staționare. TR FKI-126-90, TUM, februarie 1990, revizuit noiembrie 1990. Această lucrare a introdus, de asemenea, curiozitatea artificială și motivația intrinsecă prin rețele generative adversare în care un generator NN se luptă cu un predictor NN într-un joc minimax.
[2] J. S. O posibilitate de implementare a curiozității și plictiselii în controlerele neuronale de construcție a modelelor. În J. A. Meyer și S. W. Wilson, editori, Proc. al Conferinței Internaționale privind Simularea Comportamentului Adaptiv: De la Animale la Animații, paginile 222-227. MIT Press/Bradford Books, 1991. Bazat pe [1].
[3] Blogul JS AI (2020). 1990: Planificare și învățare prin întărire cu modele recurente ale lumii și curiozitate artificială. Rezumând aspecte ale [1][2] și multe lucrări ulterioare, inclusiv [7][8].
[4] J.S. AI Blog (2021): Curiozitate artificială și creativitate din 1990. Rezumând aspecte ale [1][2] și multe lucrări ulterioare, inclusiv [7][8].
[5] J.S. TU München CogBotLab pentru roboți de învățare (2004-2009)
[6] NNAISENSE, fondată în 2014, pentru AI în lumea fizică
[7] J.S. (2015). Despre învățarea de a gândi: teoria informației algoritmice pentru noi combinații de controlori de învățare prin întărire (RL) și modele recurente ale lumii neuronale. arXiv 1210.0118. Sec. 5.3 descrie un inginer prompt RL care învață să-și interogheze modelul pentru raționament abstract și planificare și luare a deciziilor. Astăzi acest lucru se numește "lanț de gândire".
[8] J.S. (2018). O plasă mare pentru orice. arXiv 1802.08864. A se vedea, de asemenea, brevetul US11853886B2 și tweet-ul meu DeepSeek: DeepSeek folosește elemente ale inginerului prompt de învățare prin întărire din 2015 [7] și rafinamentul său din 2018 [8] care prăbușește mașina RL și modelul mondial al [7] într-o singură rețea. Aceasta folosește procedura mea de distilare a rețelei neuronale din 1991: un sistem de gândire distilat în lanț.
[9] J.S. Turing supravândut. Totuși, nu este vina lui Turing. AI Blog (2021, a fost #1 pe Hacker News)
[10] J.S. Intelligente Roboter werden vom Leben fasziniert sein. (Roboții inteligenți vor fi fascinați de viață.) F.A.Z., 2015
[11] J.S. la Falling Walls: Trecutul, prezentul și viitorul inteligenței artificiale. Scientific American, Observații, 2017.
[12] J.S. KI ist eine Riesenchance für Deutschland. (AI este o șansă uriașă pentru Germania.) F.A.Z., 2018
[13] H. Jones. J.S. spune că munca sa de o viață nu va duce la distopie. Revista Forbes, 2023.
[14] Interviu cu J.S. Jazzyear, Shanghai, 2024.
[15] Discuție JS TED la TED AI Viena (2024): De ce 2042 va fi un an mare pentru AI. Vedeți videoclipul atașat.
[16] J.S. Baut den KI-gesteuerten Allzweckroboter! (Construiți robotul universal controlat de inteligență artificială!) F.A.Z., 2024
[17] J.S. 1995-2025: Declinul Germaniei și Japoniei față de SUA și China. Pot roboții universali să alimenteze o revenire? AI Blog, ianuarie 2025, bazat pe [16].
[18] M. Alhakami, D. R. Ashley, J. Dunham, Y. Dai, F. Faccio, E. Feron, J. Schmidhuber. Către un robot pentru bebeluși extrem de robust, cu o capacitate bogată de interacțiune pentru algoritmi avansați de învățare automată. Preprint arxiv 2404.08093, 2024.
66,84K
DeepSeek [1] folosește elemente ale inginerului prompt de învățare prin întărire din 2015 [2] și rafinamentul său din 2018 [3] care prăbușește mașina RL și modelul mondial al [2] într-o singură rețea prin procedura de distilare a rețelei neuronale din 1991 [4]: un sistem de gândire distilat.
REFERINȚE (ușor de găsit pe web):
[1] #DeepSeekR1 (2025): Stimularea capacității de raționament în LLM-uri prin învățare prin întărire. arXiv 2501.12948
[2] J. Schmidhuber (JS, 2015). Despre învățarea gândirii: teoria informației algoritmice pentru noi combinații de controlori de învățare prin întărire și modele recurente ale lumii neuronale. arXiv 1210.0118. Sec. 5.3 descrie inginerul prompt de învățare prin întărire (RL) care învață să-și interogheze în mod activ și iterativ modelul pentru raționament, planificare abstractă și luare a deciziilor.
[3] JS (2018). O plasă mare pentru orice. arXiv 1802.08864. Vezi și US11853886B2. Această lucrare colapsează cursantul de întărire și modelul mondial al [2] (de exemplu, un model de bază) într-o singură rețea, folosind procedura de distilare a rețelei neuronale din 1991 [4]. În esență, ceea ce se numește acum un sistem RL "Chain of Thought", în care îmbunătățirile ulterioare sunt distilate continuu într-o singură rețea. Vezi și [5].
[4] JS (1991). Învățarea secvențelor complexe și extinse folosind principiul compresiei istoriei. Calcul neuronal, 4(2):234-242, 1992. Bazat pe TR FKI-148-91, TUM, 1991. Primul învățător profund care lucrează pe baza unei ierarhii profunde recurente a rețelei neuronale (cu diferite scări de timp auto-organizate), depășirea problemei gradientului de dispariție prin pre-antrenament nesupravegheat (P în CHatGPT) și codificare predictivă. De asemenea: comprimarea sau distilarea unei rețele de profesori (fragmentatorul) într-o rețea de elevi (automatizatorul) care nu uită vechile sale abilități - astfel de abordări sunt acum utilizate pe scară largă. Vezi și [6].
[5] JS (AI Blog, 2020). Aniversarea a 30 de ani de planificare și învățare prin întărire cu modele mondiale recurente și curiozitate artificială (1990, introducând semnale de recompensă de înaltă dimensiune și principiul GAN). Conține rezumate ale [2][3] de mai sus.
[6] JS (AI Blog, 2021). Aniversarea a 30 de ani: Prima învățare foarte profundă cu pre-instruire nesupravegheată (1991) [4]. Codificarea predictivă ierarhică nesupravegheată găsește reprezentări interne compacte ale datelor secvențiale pentru a facilita învățarea în aval. Ierarhia poate fi distilată [4] într-o singură rețea neuronală profundă. 1993: rezolvarea problemelor de adâncime >1000.

786,96K
#NobelPrize în fizică 2024 pentru Hopfield & Hinton se dovedește a fi un premiu Nobel pentru plagiat. Ei au republicat metodologiile dezvoltate în #Ukraine și #Japan de Ivakhnenko și Amari în anii 1960 și 1970, precum și alte tehnici, fără a cita inventatorii originali. Niciunul dintre algoritmii importanți pentru AI modernă nu a fost creat de Hopfield & Hinton.
Astăzi lansez un raport tehnic detaliat despre acest [NOB]:
Desigur, am verificat-o de pionierii rețelelor neuronale și de experți în inteligență artificială pentru a mă asigura că este inatacabilă.
Este acceptabil acum pentru mine să-i îndrum pe tinerii doctoranzi să citească lucrări vechi și să le rescrie și să le retrimită ca și cum ar fi propriile lor lucrări? Oricare ar fi intenția, acest premiu spune că, da, este perfect în regulă.
Unii oameni și-au pierdut titlurile sau locurile de muncă din cauza plagiatului, de exemplu, fostul președinte al Harvard [PLAG7]. Dar după acest Premiu Nobel, cum pot consilierii să continue să le spună studenților lor că ar trebui să evite plagiatul cu orice preț?
Este bine cunoscut faptul că plagiatul poate fi fie "neintenționat", fie "intenționat sau nesăbuit" [PLAG1-6], iar cel mai inocent dintre cele două poate fi parțial cazul aici. Dar știința are un mod bine stabilit de a trata "descoperirea multiplă" și plagiatul - fie că este neintenționat [PLAG1-6][CONN21] sau nu [FAKE,FAKE2] - bazat pe fapte precum marcajele temporale ale publicațiilor și brevetelor. Deontologia științei cere ca plagiatorii neintenționați să-și corecteze publicațiile prin erate și apoi să crediteze sursele originale în mod corespunzător în viitor. Premianții nu au făcut-o; în schimb, premianții au continuat să colecteze citate pentru invențiile altor cercetători [NOB][DLP]. Acest comportament nu transformă chiar și plagiatul neintenționat [PLAG1-6] într-o formă intenționată [FAKE2]?
Sunt foarte îngrijorat de mesajul pe care îl transmite tuturor acestor tineri studenți.
REFERINŢE
[NOB] J. Schmidhuber (2024). Un premiu Nobel pentru plagiat. Raport tehnic IDSIA-24-24.
[NOB+] Tweet: #NobelPrize în fizică 2024 pentru Hopfield & Hinton recompensează plagiatul și atribuirea incorectă în informatică. Este vorba mai ales despre "rețeaua Hopfield" a lui Amari și despre "mașina Boltzmann". (1/7 la fel de popular ca anunțul inițial al Fundației Nobel)
[DLP] J. Schmidhuber (2023). Cum 3 premianți Turing au republicat metode și idei cheie ai căror creatori nu au reușit să crediteze. Raport tehnic IDSIA-23-23, Swiss AI Lab IDSIA, 14 decembrie 2023.
[DLP+] Tweet pentru [DLP]:
[PLAG1] Ghidul Oxford pentru tipurile de plagiat (2021). Citat: "Plagiatul poate fi intenționat sau nesăbuit sau neintenționat."
[PLAG2] Colegiul Comunitar de Stat Jackson (2022). Plagiat neintenționat.
[PLAG3] R. L. Foster. Evitarea plagiatului neintenționat. Jurnalul pentru specialiști în asistență medicală pediatrică; Hoboken Vol. 12, Iss. 1, 2007.
[PLAG4] N. Das. Intenționat sau neintenționat, nu este niciodată în regulă să plagiezi: O notă despre modul în care universitățile indiene sunt sfătuite să trateze plagiatul. Perspect Clin Res 9:56-7, 2018.
[PLAG5] InfoSci-OnDemand (2023). Ce este plagiatul neintenționat?
[PLAG6] (2022). Cum să evitați plagiatul accidental și neintenționat (2023). Copiați în Internet Archive. Citat: "Fie că este accidental sau intenționat, plagiatul este tot plagiat."
[PLAG7] Revizuirea Cornell, 2024. Președintele Harvard demisionează în scandalul de plagiat. 6 ianuarie 2024.
[FAKE] H. Hopf, A. Krief, G. Mehta, S. A. Matlin. Știința falsă și criza cunoașterii: ignoranța poate fi fatală. Royal Society Open Science, mai 2019. Citat: "Oamenii de știință trebuie să fie dispuși să vorbească atunci când văd informații false prezentate pe rețelele de socializare, presa scrisă tradițională sau audiovizuală" și "trebuie să vorbească împotriva informațiilor false și a științei false în circulație și să contrazică cu forță figurile publice care le promovează".
[FAKE2] L. Stenflo. Plagiatorii inteligenți sunt cei mai periculoși. Nature, vol. 427, p. 777 (februarie 2004). Citat: "Ceea ce este mai rău, în opinia mea, ..., sunt cazurile în care oamenii de știință rescriu descoperirile anterioare în cuvinte diferite, ascunzând intenționat sursele ideilor lor, iar apoi în anii următori susțin cu forță că au descoperit noi fenomene."

721,86K
Limită superioară
Clasament
Favorite
La modă pe lanț
La modă pe X
Principalele finanțări recente
Cele mai importante