Nykyaikainen tekoäly perustuu keinotekoisiin neuroverkkoihin (NN). Kuka keksi ne? Biologiset hermoverkot löydettiin 1880-luvulla [CAJ88-06]. Termi "neuroni" otettiin käyttöön vuonna 1891 [CAJ06]. Monet uskovat, että NN:t kehitettiin SEN JÄLKEEN. Mutta näin ei ole: ensimmäiset "modernit" NN:t, joissa oli kaksi kerrosta yksiköitä, keksittiin yli kaksi vuosisataa sitten (1795–1805) Legendren (1805) ja Gaussin (1795, julkaisematon) [STI81] toimesta, jolloin laskenta oli useita biljoonia kertoja kalliimpaa kuin vuonna 2025. On totta, että keinotekoisten neuroverkkojen terminologia otettiin käyttöön vasta paljon myöhemmin 1900-luvulla. Esimerkiksi tietyt ei-oppivat NN:t käsiteltiin vuonna 1943 [MC43]. Epävirallisia ajatuksia yksinkertaisesta NN:n oppimissäännöstä julkaistiin vuonna 1948 [HEB48]. Evolutiivinen laskenta NN:ille mainittiin julkaisemattomassa vuoden 1948 raportissa [TUR1]. Erilaisia konkreettisia oppimisen NN:iä julkaistiin vuosina 1958 [R58], 1961 [R61][ST61-95] ja 1962 [WID62]. Kuitenkin, vaikka nämä 1900-luvun puolivälin NN-artikkelit ovat historiallisesti kiinnostavissa, NIILLÄ ON ITSE ASIASSA VÄHEMMÄN TEKEMISTÄ NYKYAIKAISEN TEKOÄLYN KANSSA KUIN PALJON VANHEMPI ADAPTIIVINEN NN, jonka on kirjoittanut Gauss & Legendre, joka on edelleen laajasti käytössä ja on kaikkien NN:n, mukaan lukien viimeaikaiset syvemmät NN:t [DL25], perusta. Yli kahden vuosisadan takainen Gauss-Legendre NN [NN25] sisältää tulokerroksen, jossa on useita syöttöyksiköitä, sekä lähtökerros. Yksinkertaisuuden vuoksi oletetaan, että jälkimmäinen koostuu yhdestä lähtöyksiköstä. Jokainen tuloyksikkö voi sisältää reaalilukua ja on yhdistetty lähtöyksikköön reaalilukuisella liitoksella. NN:n tulos on syötteiden tulojen ja niiden painojen summa. Annettuna koulutusjoukko syötevektoreja ja haluttuja tavoitearvoja kullekin niistä, NN-painot säädetään siten, että NN-tulosteiden ja vastaavien kohteiden neliövirheiden summa minimoidaan [DLH]. Nyt NN:ää voidaan käyttää aiemmin näkemättömän testidatan käsittelyyn. Tietenkään tuolloin tätä ei kutsuttu NN:ksi, koska ihmiset eivät vielä edes tienneet biologisista neuroneista – ensimmäinen mikroskooppinen hermosolun kuva luotiin vuosikymmeniä myöhemmin Valentinin toimesta vuonna 1836, ja termi "neuroni" lanseerattiin Waldeyerin toimesta vuonna 1891 [CAJ06]. Sen sijaan tekniikkaa kutsuttiin vähimpien neliöiden menetelmäksi, joka tunnetaan tilastotieteessä laajalti nimellä lineaarinen regressio. Mutta se on MATEMAATTISESTI IDENTTINEN nykyisten lineaaristen 2-kerroksellisten NN:ien kanssa: SAMA perusalgoritmi, SAMA virhefunktio, SAMAT adaptiiviset parametrit/painot. Tällaiset yksinkertaiset NN:t suorittavat "pinnallista oppimista", toisin kuin "syväoppimista", jossa on paljon epälineaarisia kerroksia [DL25]. Itse asiassa monet nykyaikaiset NN-kurssit aloittavat tämän menetelmän esittelyllä ja siirtyvät sitten monimutkaisempiin, syvempiin NN:iin [DLH]. Jopa 1800-luvun alun sovellukset olivat samankaltaisia kuin nykyään: opi ennustamaan seuraava sekvenssin elementti aiempien elementtien perusteella. SITÄ CHATGPT TEKEE! Ensimmäinen kuuluisa esimerkki kuvioiden tunnistamisesta NN:n kautta on yli 200 vuoden taakse: kääpiöplaneetta Ceresin uudelleenlöytö vuonna 1801 Gaussin toimesta, joka keräsi meluisia datapisteitä aiemmista tähtitieteellisistä havainnoista ja käytti niitä ennustajan parametrien säätämiseen, joka oppi käytännössä yleistämään koulutusdatasta ennustaakseen Ceresin uuden sijainnin oikein. Se teki nuoresta Gaussista kuuluisan [DLH]. Vanhoja Gauss-Legendre-NN:iä käytetään yhä tänä päivänä lukemattomissa sovelluksissa. Mikä on suurin ero NN:iin, joita on käytetty joissakin vaikuttavissa tekoälysovelluksissa 2010-luvulta lähtien? Jälkimmäiset ovat tyypillisesti paljon syvempiä ja niissä on monia välitasoja oppimisen "piilotettuja" yksiköitä. Kuka keksi tämän? Lyhyt vastaus: Ivakhnenko & Lapa (1965) [DEEP1-2]. Toiset hioivat tätä [DLH]. Katso myös: kuka keksi syväoppimisen [DL25]? Jotkut uskovat yhä, että nykyiset NN:t ovat jotenkin saaneet inspiraationsa biologisesta aivosta. Mutta se ei yksinkertaisesti pidä paikkaansa: vuosikymmeniä ennen biologisten hermosolujen löytämistä pelkkä insinööritaito ja matemaattinen ongelmanratkaisu johtivat nykyisiin NN-soluihin. Itse asiassa viimeisten kahden vuosisadan aikana tekoälytutkimuksessa ei ole juuri muuttunut: vuoteen 2025 mennessä NN:n kehitys on yhä pääosin insinööritaidon ohjaama, ei neurofysiologisten oivallusten ohjaamista. (Tietyt poikkeukset, jotka ulottuvat vuosikymmenten taakse [CN25], vahvistavat säännön.) Alaviite 1. Vuonna 1958 yksinkertaiset Gauss & Legendre -tyyliset NN:t yhdistettiin lähtökynnysfunktioon, jolloin saatiin kuvioiden luokittelijoita nimeltä Perceptrons [R58][R61][DLH]. Hämmästyttävää kyllä, kirjoittajat [R58][R61] vaikuttivat olevan tietämättömiä paljon aikaisemmasta NN:stä (1795–1805), joka tunnetaan tilastotieteen alalla nimellä "pienimmän neliösumman menetelmä" tai "lineaarinen regressio". Huomionarvoista on, että nykyään yleisimmin käytetyt kaksikerroksiset NN:t ovat Gauss & Legendren NN:t, eivät 1940-luvun [MC43] ja 1950-luvun [R58] (joita ei edes voitu derivottaa)! VALITUT LÄHTEET (monia lisälähteitä [NN25]:ssä – katso yllä oleva linkki): [CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Pastori Trim. Histol. Norm. Patol., 1 (1888), s. 1-10. [CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Pastori Trim. Histol. Norm. Patol., 1 (1888), s. 33-49. [CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), s. 341-346. [CAJ06] F. López-Muñoz, J. Boya b. C. Alamo (2006). Neuroniteoria, neurotieteen kulmakivi, Nobelin palkinnon satavuotisjuhlan kunniaksi Santiago Ramón y Cajalille. Brain Research Bulletin, Volume 70, numerot 4–6, 16. lokakuuta 2006, sivut 391-405. ...