Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La IA moderna se basa en redes neuronales artificiales (NNs). ¿Quién las inventó?
Las redes neuronales biológicas fueron descubiertas en la década de 1880 [CAJ88-06]. El término "neurona" fue acuñado en 1891 [CAJ06]. Muchos piensan que las NNs se desarrollaron DESPUÉS de eso. Pero no es así: las primeras NNs "modernas" con 2 capas de unidades fueron inventadas hace más de 2 siglos (1795-1805) por Legendre (1805) y Gauss (1795, no publicado) [STI81], cuando el cálculo era muchas billones de veces más caro que en 2025.
Es cierto que la terminología de las redes neuronales artificiales se introdujo solo mucho más tarde, en la década de 1900. Por ejemplo, ciertas NNs no aprendientes fueron discutidas en 1943 [MC43]. Pensamientos informales sobre una regla de aprendizaje simple de NN fueron publicados en 1948 [HEB48]. La computación evolutiva para NNs fue mencionada en un informe no publicado de 1948 [TUR1]. Varias NNs concretas de aprendizaje fueron publicadas en 1958 [R58], 1961 [R61][ST61-95] y 1962 [WID62].
Sin embargo, aunque estos artículos de NN de mediados del siglo XX son de interés histórico, EN REALIDAD TIENEN MENOS QUE VER CON LA IA MODERNA QUE LA MUCHO MÁS ANTIGUA NN ADAPTATIVA de Gauss y Legendre, que todavía se utiliza ampliamente hoy en día, la misma base de todas las NNs, incluidas las recientes NNs más profundas [DL25].
La NN de Gauss-Legendre de hace más de 2 siglos [NN25] tiene una capa de entrada con varias unidades de entrada y una capa de salida. Para simplificar, supongamos que esta última consiste en una única unidad de salida. Cada unidad de entrada puede contener un número de valor real y está conectada a la unidad de salida mediante una conexión con un peso de valor real. La salida de la NN es la suma de los productos de las entradas y sus pesos. Dado un conjunto de entrenamiento de vectores de entrada y valores objetivo deseados para cada uno de ellos, los pesos de la NN se ajustan de tal manera que la suma de los errores cuadrados entre las salidas de la NN y los objetivos correspondientes se minimiza [DLH]. Ahora la NN puede ser utilizada para procesar datos de prueba previamente no vistos.
Por supuesto, en ese entonces no se llamaba NN, porque la gente ni siquiera conocía las neuronas biológicas todavía: la primera imagen microscópica de una célula nerviosa fue creada décadas más tarde por Valentin en 1836, y el término "neurona" fue acuñado por Waldeyer en 1891 [CAJ06]. En cambio, la técnica se llamaba el Método de Mínimos Cuadrados, también conocido ampliamente en estadística como Regresión Lineal. Pero es MATEMÁTICAMENTE IDÉNTICO a las NNs lineales de 2 capas de hoy: MISMO algoritmo básico, MISMA función de error, MISMOS parámetros/pesos adaptativos. Tales NNs simples realizan "aprendizaje superficial", a diferencia del "aprendizaje profundo" con muchas capas no lineales [DL25]. De hecho, muchos cursos modernos de NN comienzan introduciendo este método, luego pasan a NNs más complejas y profundas [DLH].
Incluso las aplicaciones de principios del siglo XIX eran similares a las de hoy: aprender a predecir el siguiente elemento de una secuencia, dado los elementos anteriores. ¡ESO ES LO QUE HACE CHATGPT! El primer ejemplo famoso de reconocimiento de patrones a través de una NN data de hace más de 200 años: el redescubrimiento del planeta enano Ceres en 1801 a través de Gauss, quien recopiló puntos de datos ruidosos de observaciones astronómicas anteriores, y luego los utilizó para ajustar los parámetros de un predictor, que esencialmente aprendió a generalizar a partir de los datos de entrenamiento para predecir correctamente la nueva ubicación de Ceres. Eso es lo que hizo famoso al joven Gauss [DLH].
Las antiguas NNs de Gauss-Legendre todavía se utilizan hoy en innumerables aplicaciones. ¿Cuál es la principal diferencia con las NNs utilizadas en algunas de las impresionantes aplicaciones de IA desde la década de 2010? Estas últimas son típicamente mucho más profundas y tienen muchas capas intermedias de unidades de aprendizaje "ocultas". ¿Quién inventó esto? Respuesta corta: Ivakhnenko y Lapa (1965) [DEEP1-2]. Otros refinaron esto [DLH]. Véase también: ¿quién inventó el aprendizaje profundo [DL25]?
Algunas personas todavía creen que las NNs modernas fueron de alguna manera inspiradas por el cerebro biológico. Pero eso simplemente no es cierto: décadas antes de que se descubrieran las células nerviosas biológicas, la ingeniería pura y la resolución de problemas matemáticos ya habían llevado a lo que ahora se llama NNs. De hecho, en los últimos 2 siglos, no ha cambiado mucho en la investigación de IA: a partir de 2025, el progreso de las NNs sigue siendo impulsado principalmente por la ingeniería, no por conocimientos neurofisiológicos. (Ciertas excepciones que datan de hace muchas décadas [CN25] confirman la regla.)
Nota al pie 1. En 1958, NNs simples al estilo de Gauss y Legendre se combinaron con una función de umbral de salida para obtener clasificadores de patrones llamados Perceptrones [R58][R61][DLH]. Asombrosamente, los autores [R58][R61] parecían no ser conscientes de la NN mucho más antigua (1795-1805) famosa en el campo de la estadística como "método de mínimos cuadrados" o "regresión lineal." Notablemente, las NNs de 2 capas más utilizadas hoy en día son las de Gauss y Legendre, no las de la década de 1940 [MC43] y 1950 [R58] (¡que ni siquiera eran diferenciables)!
REFERENCIAS SELECCIONADAS (muchas referencias adicionales en [NN25] - ver enlace arriba):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), pp. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Teoría de la neurona, la piedra angular de la neurociencia, en el centenario del premio Nobel otorgado a Santiago Ramón y Cajal. Brain Research Bulletin, Volumen 70, Problemas 4–6, 16 de octubre de 2006, Páginas 391-405.
...

Parte superior
Clasificación
Favoritos

