A IA moderna baseia-se em redes neurais artificiais (NNs). Quem as inventou? As redes neurais biológicas foram descobertas na década de 1880 [CAJ88-06]. O termo "neurônio" foi cunhado em 1891 [CAJ06]. Muitos pensam que as NNs foram desenvolvidas APÓS isso. Mas não é o caso: as primeiras NNs "modernas" com 2 camadas de unidades foram inventadas há mais de 2 séculos (1795-1805) por Legendre (1805) e Gauss (1795, não publicado) [STI81], quando o cálculo era muitas trilhões de vezes mais caro do que em 2025. É verdade que a terminologia das redes neurais artificiais foi introduzida apenas muito mais tarde, nos anos 1900. Por exemplo, certas NNs não aprendentes foram discutidas em 1943 [MC43]. Pensamentos informais sobre uma regra de aprendizado simples para NNs foram publicados em 1948 [HEB48]. A computação evolutiva para NNs foi mencionada em um relatório não publicado de 1948 [TUR1]. Várias NNs concretas de aprendizado foram publicadas em 1958 [R58], 1961 [R61][ST61-95] e 1962 [WID62]. No entanto, enquanto esses artigos sobre NNs da metade do século XX são de interesse histórico, ELES TÊM REALMENTE MENOS A VER COM A IA MODERNA DO QUE A MUITO MAIS ANTIGA NN ADAPTATIVA de Gauss & Legendre, ainda amplamente utilizada hoje, a própria base de todas as NNs, incluindo as NNs mais profundas recentes [DL25]. A NN Gauss-Legendre de há mais de 2 séculos [NN25] tem uma camada de entrada com várias unidades de entrada e uma camada de saída. Para simplificar, vamos assumir que esta última consiste em uma única unidade de saída. Cada unidade de entrada pode conter um número de valor real e está conectada à unidade de saída por uma conexão com um peso de valor real. A saída da NN é a soma dos produtos das entradas e seus pesos. Dado um conjunto de treinamento de vetores de entrada e valores-alvo desejados para cada um deles, os pesos da NN são ajustados de forma que a soma dos erros quadráticos entre as saídas da NN e os alvos correspondentes seja minimizada [DLH]. Agora a NN pode ser usada para processar dados de teste previamente não vistos. Claro, naquela época isso não era chamado de NN, porque as pessoas nem sabiam sobre neurônios biológicos ainda - a primeira imagem microscópica de uma célula nervosa foi criada décadas depois por Valentin em 1836, e o termo "neurônio" foi cunhado por Waldeyer em 1891 [CAJ06]. Em vez disso, a técnica era chamada de Método dos Mínimos Quadrados, também amplamente conhecido em estatísticas como Regressão Linear. Mas é MATEMATICAMENTE IDÊNTICO às NNs lineares de 2 camadas de hoje: MESMO algoritmo básico, MESMA função de erro, MESMOS parâmetros/pesos adaptativos. Tais NNs simples realizam "aprendizado raso", em oposição ao "aprendizado profundo" com muitas camadas não lineares [DL25]. De fato, muitos cursos modernos de NN começam apresentando este método, depois passam para NNs mais complexas e profundas [DLH]. Até mesmo as aplicações do início dos anos 1800 eram semelhantes às de hoje: aprender a prever o próximo elemento de uma sequência, dado elementos anteriores. É ISSO QUE O CHATGPT FAZ! O primeiro exemplo famoso de reconhecimento de padrões através de uma NN remonta a mais de 200 anos: a redescoberta do planeta anão Ceres em 1801 através de Gauss, que coletou pontos de dados ruidosos de observações astronômicas anteriores, e então os usou para ajustar os parâmetros de um preditor, que essencialmente aprendeu a generalizar a partir dos dados de treinamento para prever corretamente a nova localização de Ceres. Foi isso que fez o jovem Gauss famoso [DLH]. As antigas NNs Gauss-Legendre ainda estão sendo usadas hoje em inúmeras aplicações. Qual é a principal diferença em relação às NNs usadas em algumas das impressionantes aplicações de IA desde a década de 2010? Estas últimas são tipicamente muito mais profundas e têm muitas camadas intermediárias de unidades de aprendizado "ocultas". Quem inventou isso? Resposta curta: Ivakhnenko & Lapa (1965) [DEEP1-2]. Outros refinaram isso [DLH]. Veja também: quem inventou o aprendizado profundo [DL25]? Algumas pessoas ainda acreditam que as NNs modernas foram de alguma forma inspiradas pelo cérebro biológico. Mas isso simplesmente não é verdade: décadas antes de as células nervosas biológicas serem descobertas, a engenharia pura e a resolução de problemas matemáticos já levaram ao que agora é chamado de NNs. De fato, nos últimos 2 séculos, não mudou muito na pesquisa em IA: em 2025, o progresso das NNs ainda é principalmente impulsionado pela engenharia, não por insights neurofisiológicos. (Certas exceções que datam de muitas décadas [CN25] confirmam a regra.) Nota de rodapé 1. Em 1958, NNs simples no estilo de Gauss & Legendre foram combinadas com uma função de limiar de saída para obter classificadores de padrões chamados Perceptrons [R58][R61][DLH]. Surpreendentemente, os autores [R58][R61] pareciam não estar cientes da NN muito anterior (1795-1805) famosa no campo da estatística como "método dos mínimos quadrados" ou "regressão linear." Notavelmente, as NNs de 2 camadas mais frequentemente usadas hoje são as de Gauss & Legendre, não as da década de 1940 [MC43] e 1950 [R58] (que nem eram diferenciáveis)! REFERÊNCIAS SELECIONADAS (muitas referências adicionais em [NN25] - veja o link acima): [CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10. [CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49. [CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), pp. 341-346. [CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Neuron theory, the cornerstone of neuroscience, on the centenary of the Nobel Prize award to Santiago Ramón y Cajal. Brain Research Bulletin, Volume 70, Issues 4–6, 16 October 2006, Pages 391-405. ...