Inteligența artificială modernă se bazează pe rețele neuronale artificiale (NN). Cine le-a inventat? Rețelele neuronale biologice au fost descoperite în anii 1880 [CAJ88-06]. Termenul "neuron" a fost inventat în 1891 [CAJ06]. Mulți cred că NN-urile au fost dezvoltate DUPĂ aceea. Dar nu este cazul: primele NN-uri "moderne" cu 2 straturi de unități au fost inventate acum mai bine de două secole (1795-1805) de Legendre (1805) și Gauss (1795, nepublicat) [STI81], când calculul era de multe trilioane de ori mai scump decât în 2025. Este adevărat, terminologia rețelelor neuronale artificiale a fost introdusă abia mult mai târziu, în anii 1900. De exemplu, anumite NN-uri non-learning au fost discutate în 1943 [MC43]. Gânduri informale despre o regulă simplă de învățare a NN au fost publicate în 1948 [HEB48]. Calculul evolutiv pentru NN a fost menționat într-un raport nepublicat din 1948 [TUR1]. Diverse NN-uri de învățare concrete au fost publicate în 1958 [R58], 1961 [R61][ST61-95] și 1962 [WID62]. Totuși, deși aceste lucrări despre NN din mijlocul anilor 1900 au un interes istoric, ELE AU DE FAPT MAI PUȚIN DE-A FACE CU AI MODERN decât cu mult mai vechiul nn adaptiv de Gauss & Legendre, încă folosit pe scară largă astăzi, însăși fundamentul tuturor NN-urilor, inclusiv al recentelor NN-uri mai profunde [DL25]. NN-ul Gauss-Legendre de acum peste 2 secole [NN25] are un strat de intrare cu mai multe unități de intrare și un strat de ieșire. Pentru simplitate, să presupunem că aceasta din urmă constă dintr-o singură unitate de ieșire. Fiecare unitate de intrare poate conține un număr cu valori reale și este conectată la unitatea de ieșire printr-o conexiune cu o greutate reală. Ieșirea NN-ului este suma produselor intrărilor și a greutăților acestora. Având un set de antrenament de vectori de intrare și valorile țintă dorite pentru fiecare dintre ei, greutățile NN sunt ajustate astfel încât suma erorilor pătratice dintre ieșirile NN și țintele corespunzătoare să fie minimizată [DLH]. Acum NN-ul poate fi folosit pentru a procesa date de testare nevăzute anterior. Desigur, pe atunci nu se numea NN, pentru că oamenii nici măcar nu știau încă despre neuronii biologici – prima imagine microscopică a unei celule nervoase a fost creată decenii mai târziu de Valentin în 1836, iar termenul "neuron" a fost inventat de Waldeyer în 1891 [CAJ06]. În schimb, tehnica a fost numită Metoda Celor Mici Pătrate, cunoscută pe scară largă în statistică și sub denumirea de Regresie Liniară. Dar este MATEMATIC IDENTIC cu NN-urile liniare cu 2 straturi de astăzi: ACELAȘI algoritm de bază, ACEEAȘI funcție de eroare, ACEIAȘI parametri/greutăți adaptive. Astfel de NN-uri simple realizează "învățare superficială", spre deosebire de "învățare profundă" cu multe straturi neliniare [DL25]. De fapt, multe cursuri moderne de NN încep prin a introduce această metodă, apoi trec la NN-uri mai complexe și mai profunde [DLH]. Chiar și aplicațiile de la începutul anilor 1800 erau similare cu cele de astăzi: învață să prezici următorul element al unei secvențe, date fiind elementele anterioare. ASTA FACE CHATGPT! Primul exemplu celebru de recunoaștere a tiparelor printr-un NN datează de peste 200 de ani: redescoperirea planetei pitice Ceres în 1801 prin Gauss, care a colectat puncte de date zgomotoase din observații astronomice anterioare, apoi le-a folosit pentru a ajusta parametrii unui predictor, care practic a învățat să generalizeze din datele de antrenament pentru a prezice corect noua locație a lui Ceres. Asta l-a făcut pe tânărul Gauss faimos [DLH]. Vechile NN Gauss-Legendre sunt încă folosite astăzi în nenumărate aplicații. Care este principala diferență față de NN-urile folosite în unele dintre aplicațiile impresionante de AI din anii 2010 încoace? Acestea din urmă sunt de obicei mult mai profunde și au multe straturi intermediare de unități "ascunse" de învățare. Cine a inventat asta? Răspuns scurt: Ivakhnenko & Lapa (1965) [DEEP1-2]. Alții au rafinat acest [DLH]. Vezi și: cine a inventat învățarea profundă [DL25]? Unii oameni încă cred că NN-urile moderne au fost cumva inspirate de creierul biologic. Dar acest lucru pur și simplu nu este adevărat: cu decenii înainte ca celulele nervoase biologice să fie descoperite, simpla tehnologie și rezolvarea matematică a problemelor au dus deja la ceea ce acum se numesc NN-uri. De fapt, în ultimele două secole, nu s-a schimbat prea mult în cercetarea AI: până în 2025, progresul NN este încă în mare parte condus de inginerie, nu de perspective neurofiziologice. (Anumite excepții datând de mai multe decenii [CN25] confirmă regula.) Notă de subsol 1. În 1958, NN-uri simple în stilul Gauss & Legendre au fost combinate cu o funcție de prag de ieșire pentru a obține clasificatori de modele numiți Perceptroni [R58][R61][DLH]. Uimitor, autorii [R58][R61] păreau să nu fie conștienți de mult mai vechiul NN (1795-1805), cunoscut faimos în domeniul statisticii ca "metoda celor mai mici pătrate" sau "regresie liniară". Remarcabil, cele mai frecvent folosite NN-uri cu 2 straturi de astăzi sunt cele ale lui Gauss & Legendre, nu cele din anii 1940 [MC43] și 1950 [R58] (care nici măcar nu erau diferențiabile)! REFERINȚE SELECTATE (multe referințe suplimentare în [NN25] - vezi linkul de mai sus): [CAJ88] S. R. Cajal. Structura centrelor nervoase ale aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10. [CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49. [CAJ89] Conexiunea generală a elementelor nervoase. Med. Práct., 2 (1889), pp. 341-346. [CAJ06] F. López-Muñoz, J. Boya a învins, C. Alamo (2006). Teoria neuronilor, piatra de temelie a neuroștiinței, cu ocazia centenarului premiului Nobel acordat lui Santiago Ramón y Cajal. Brain Research Bulletin, Volumul 70, Numerele 4–6, 16 octombrie 2006, Paginile 391-405. ...