Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L'IA moderne est basée sur des réseaux neuronaux artificiels (NN). Qui les a inventés ?
Les réseaux neuronaux biologiques ont été découverts dans les années 1880 [CAJ88-06]. Le terme "neurone" a été inventé en 1891 [CAJ06]. Beaucoup pensent que les NN ont été développés APRÈS cela. Mais ce n'est pas le cas : les premiers "NN modernes" avec 2 couches d'unités ont été inventés il y a plus de 2 siècles (1795-1805) par Legendre (1805) et Gauss (1795, non publié) [STI81], lorsque le calcul coûtait des trillions de fois plus cher qu'en 2025.
Il est vrai que la terminologie des réseaux neuronaux artificiels n'a été introduite que beaucoup plus tard dans les années 1900. Par exemple, certains NN non-apprenants ont été discutés en 1943 [MC43]. Des réflexions informelles sur une règle d'apprentissage simple pour les NN ont été publiées en 1948 [HEB48]. Le calcul évolutif pour les NN a été mentionné dans un rapport non publié de 1948 [TUR1]. Divers NN d'apprentissage concrets ont été publiés en 1958 [R58], 1961 [R61][ST61-95], et 1962 [WID62].
Cependant, bien que ces articles sur les NN des années 1900 soient d'un intérêt historique, ILS ONT EN FAIT MOINS À VOIR AVEC L'IA MODERNE QUE LE TRÈS ANCIEN NN ADAPTATIF de Gauss & Legendre, encore largement utilisé aujourd'hui, la véritable fondation de tous les NN, y compris les NN plus profonds récents [DL25].
Le NN Gauss-Legendre d'il y a plus de 2 siècles [NN25] a une couche d'entrée avec plusieurs unités d'entrée, et une couche de sortie. Pour simplifier, supposons que cette dernière se compose d'une seule unité de sortie. Chaque unité d'entrée peut contenir un nombre à valeur réelle et est connectée à l'unité de sortie par une connexion avec un poids à valeur réelle. La sortie du NN est la somme des produits des entrées et de leurs poids. Étant donné un ensemble d'apprentissage de vecteurs d'entrée et de valeurs cibles souhaitées pour chacun d'eux, les poids du NN sont ajustés de sorte que la somme des erreurs au carré entre les sorties du NN et les cibles correspondantes soit minimisée [DLH]. Maintenant, le NN peut être utilisé pour traiter des données de test jamais vues auparavant.
Bien sûr, à l'époque, cela n'était pas appelé un NN, car les gens ne savaient même pas encore ce qu'étaient les neurones biologiques - la première image microscopique d'une cellule nerveuse a été créée des décennies plus tard par Valentin en 1836, et le terme "neurone" a été inventé par Waldeyer en 1891 [CAJ06]. Au lieu de cela, la technique était appelée la Méthode des Moindres Carrés, également largement connue en statistiques sous le nom de Régression Linéaire. Mais elle est MATHEMATIQUEMENT IDENTIQUE aux NN linéaires à 2 couches d'aujourd'hui : MÊME algorithme de base, MÊME fonction d'erreur, MÊMES paramètres/poids adaptatifs. De tels NN simples effectuent un "apprentissage superficiel", par opposition à "l'apprentissage profond" avec de nombreuses couches non linéaires [DL25]. En fait, de nombreux cours modernes sur les NN commencent par introduire cette méthode, puis passent à des NN plus complexes et plus profonds [DLH].
Même les applications du début des années 1800 étaient similaires à celles d'aujourd'hui : apprendre à prédire le prochain élément d'une séquence, étant donné les éléments précédents. C'EST CE QUE FAIT CHATGPT ! Le premier exemple célèbre de reconnaissance de motifs à travers un NN remonte à plus de 200 ans : la redécouverte de la planète naine Cérès en 1801 par Gauss, qui a collecté des points de données bruyants provenant d'observations astronomiques précédentes, puis les a utilisés pour ajuster les paramètres d'un prédicteur, qui a essentiellement appris à généraliser à partir des données d'apprentissage pour prédire correctement la nouvelle position de Cérès. C'est ce qui a rendu le jeune Gauss célèbre [DLH].
Les anciens NN Gauss-Legendre sont encore utilisés aujourd'hui dans d'innombrables applications. Quelle est la principale différence avec les NN utilisés dans certaines des applications d'IA impressionnantes depuis les années 2010 ? Ces derniers sont généralement beaucoup plus profonds et ont de nombreuses couches intermédiaires d'unités d'apprentissage "cachées". Qui a inventé cela ? Réponse courte : Ivakhnenko & Lapa (1965) [DEEP1-2]. D'autres ont affiné cela [DLH]. Voir aussi : qui a inventé l'apprentissage profond [DL25] ?
Certaines personnes croient encore que les NN modernes ont été en quelque sorte inspirés par le cerveau biologique. Mais ce n'est tout simplement pas vrai : des décennies avant la découverte des cellules nerveuses biologiques, la simple ingénierie et la résolution de problèmes mathématiques ont déjà conduit à ce qui est maintenant appelé des NN. En fait, au cours des 2 derniers siècles, peu de choses ont changé dans la recherche en IA : à partir de 2025, les progrès des NN sont encore principalement motivés par l'ingénierie, et non par des aperçus neurophysiologiques. (Certaines exceptions datant de plusieurs décennies [CN25] confirment la règle.)
Note 1. En 1958, des NN simples dans le style de Gauss & Legendre ont été combinés avec une fonction de seuil de sortie pour obtenir des classificateurs de motifs appelés Perceptrons [R58][R61][DLH]. Étonnamment, les auteurs [R58][R61] semblaient ignorer le NN beaucoup plus ancien (1795-1805) connu dans le domaine des statistiques sous le nom de "méthode des moindres carrés" ou "régression linéaire." Remarquablement, les NN à 2 couches les plus fréquemment utilisés aujourd'hui sont ceux de Gauss & Legendre, et non ceux des années 1940 [MC43] et 1950 [R58] (qui n'étaient même pas différentiables) !
RÉFÉRENCES SÉLECTIONNÉES (de nombreuses références supplémentaires dans [NN25] - voir le lien ci-dessus) :
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), pp. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Neuron theory, the cornerstone of neuroscience, on the centenary of the Nobel Prize award to Santiago Ramón y Cajal. Brain Research Bulletin, Volume 70, Issues 4–6, 16 October 2006, Pages 391-405.
...

Meilleurs
Classement
Favoris

