Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Moderne AI is gebaseerd op kunstmatige neurale netwerken (NN's). Wie heeft ze uitgevonden?
Biologische neurale netwerken werden ontdekt in de jaren 1880 [CAJ88-06]. De term "neuron" werd bedacht in 1891 [CAJ06]. Veel mensen denken dat NN's pas DÁÁRNA zijn ontwikkeld. Maar dat is niet het geval: de eerste "moderne" NN's met 2 lagen eenheden werden meer dan 2 eeuwen geleden (1795-1805) uitgevonden door Legendre (1805) en Gauss (1795, ongepubliceerd) [STI81], toen de rekentijd vele triljoenen keren duurder was dan in 2025.
Het klopt dat de terminologie van kunstmatige neurale netwerken pas veel later in de jaren 1900 werd geïntroduceerd. Bijvoorbeeld, bepaalde niet-lerende NN's werden besproken in 1943 [MC43]. Informele gedachten over een eenvoudige NN-leerregel werden gepubliceerd in 1948 [HEB48]. Evolutionaire berekeningen voor NN's werden genoemd in een ongepubliceerd rapport uit 1948 [TUR1]. Verschillende concrete leer-NN's werden gepubliceerd in 1958 [R58], 1961 [R61][ST61-95], en 1962 [WID62].
Echter, terwijl deze NN-papieren uit het midden van de jaren 1900 van historische interesse zijn, HEBBEN ZE EIGENLIJK MINDER TE MAKEN MET MODERNE AI DAN HET VEEL OUDERE ADAPTIEVE NN van Gauss & Legendre, dat nog steeds veel wordt gebruikt, de fundering van alle NN's, inclusief de recentere diepere NN's [DL25].
Het Gauss-Legendre NN van meer dan 2 eeuwen geleden [NN25] heeft een inputlaag met verschillende invoereenheden, en een outputlaag. Voor de eenvoud, laten we aannemen dat de laatste bestaat uit een enkele outputeenheid. Elke invoereenheid kan een reëel getal vasthouden en is verbonden met de outputeenheid door een verbinding met een reëel gewicht. De output van het NN is de som van de producten van de invoeren en hun gewichten. Gegeven een trainingsset van invoervectoren en gewenste doelwaarden voor elk van hen, worden de NN-gewichten aangepast zodat de som van de gekwadrateerde fouten tussen de NN-uitgangen en de bijbehorende doelen wordt geminimaliseerd [DLH]. Nu kan het NN worden gebruikt om eerder ongeziene testgegevens te verwerken.
Natuurlijk werd dit destijds geen NN genoemd, omdat mensen nog niet eens wisten over biologische neuronen - de eerste microscopische afbeelding van een zenuwcel werd decennia later gemaakt door Valentin in 1836, en de term "neuron" werd bedacht door Waldeyer in 1891 [CAJ06]. In plaats daarvan werd de techniek de Methode van de Kleinste Kwadraten genoemd, ook wel bekend in de statistiek als Lineaire Regressie. Maar het is WISKUNDIG IDENTIEK aan de huidige lineaire 2-laags NN's: DEZELFDE basisalgoritme, DEZELFDE foutfunctie, DEZELFDE adaptieve parameters/gewichten. Dergelijke eenvoudige NN's voeren "oppervlakkig leren" uit, in tegenstelling tot "diep leren" met veel niet-lineaire lagen [DL25]. In feite beginnen veel moderne NN-cursussen met het introduceren van deze methode, en gaan dan verder met complexere, diepere NN's [DLH].
Zelfs de toepassingen van de vroege jaren 1800 waren vergelijkbaar met die van vandaag: leren om het volgende element van een reeks te voorspellen, gegeven eerdere elementen. DAT IS WAT CHATGPT DOET! Het eerste beroemde voorbeeld van patroonherkenning door een NN dateert van meer dan 200 jaar geleden: de herontdekking van de dwergplaneet Ceres in 1801 door Gauss, die ruisachtige gegevenspunten verzamelde uit eerdere astronomische waarnemingen, en deze vervolgens gebruikte om de parameters van een voorspeller aan te passen, die in wezen leerde te generaliseren van de trainingsgegevens om de nieuwe locatie van Ceres correct te voorspellen. Dat is wat de jonge Gauss beroemd maakte [DLH].
De oude Gauss-Legendre NN's worden nog steeds vandaag de dag in ontelbare toepassingen gebruikt. Wat is het belangrijkste verschil met de NN's die in sommige van de indrukwekkende AI-toepassingen sinds de jaren 2010 worden gebruikt? Laatstgenoemden zijn doorgaans veel dieper en hebben veel tussenliggende lagen van leren "verborgen" eenheden. Wie heeft dit uitgevonden? Korte antwoord: Ivakhnenko & Lapa (1965) [DEEP1-2]. Anderen verfijnden dit [DLH]. Zie ook: wie heeft diep leren uitgevonden [DL25]?
Sommige mensen geloven nog steeds dat moderne NN's op de een of andere manier geïnspireerd zijn door de biologische hersenen. Maar dat is gewoon niet waar: decennia voordat biologische zenuwcellen werden ontdekt, leidde gewone techniek en wiskundige probleemoplossing al tot wat nu NN's wordt genoemd. In feite is er in de afgelopen 2 eeuwen niet zoveel veranderd in het AI-onderzoek: vanaf 2025 wordt de vooruitgang van NN's nog steeds voornamelijk gedreven door techniek, niet door neurofysiologische inzichten. (Bepaalde uitzonderingen die teruggaan tot vele decennia [CN25] bevestigen de regel.)
Voetnoot 1. In 1958 werden eenvoudige NN's in de stijl van Gauss & Legendre gecombineerd met een outputdrempelfunctie om patroonclassificeerders te verkrijgen die Perceptrons worden genoemd [R58][R61][DLH]. Verbazingwekkend genoeg leken de auteurs [R58][R61] zich niet bewust van de veel eerdere NN (1795-1805) die beroemd bekend staat in het veld van de statistiek als "methode van de kleinste kwadraten" of "lineaire regressie." Opmerkelijk is dat de meest gebruikte 2-laags NN's van Gauss & Legendre zijn, niet die van de jaren 1940 [MC43] en 1950 [R58] (die zelfs niet differentieerbaar waren)!
Geselecteerde REFERENTIES (veel aanvullende referenties in [NN25] - zie link hierboven):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), pp. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Neuron theory, the cornerstone of neuroscience, on the centenary of the Nobel Prize award to Santiago Ramón y Cajal. Brain Research Bulletin, Volume 70, Issues 4–6, 16 October 2006, Pages 391-405.
...

Boven
Positie
Favorieten

