A IA moderna é baseada em redes neurais artificiais (NNs). Quem os inventou? Redes neurais biológicas foram descobertas na década de 1880 [CAJ88-06]. O termo "neurônio" foi cunhado em 1891 [CAJ06]. Muitos acham que as NNs foram desenvolvidas DEPOIS disso. Mas não é o caso: as primeiras NNs "modernas" com 2 camadas de unidades foram inventadas há mais de 2 séculos (1795-1805) por Legendre (1805) e Gauss (1795, não publicado) [STI81], quando o cálculo era muitas trilhões de vezes mais caro do que em 2025. É verdade que a terminologia de redes neurais artificiais só foi introduzida muito mais tarde, no século XX. Por exemplo, certos NNs não aprendizes foram discutidos em 1943 [MC43]. Reflexões informais sobre uma regra simples de aprendizagem de NN foram publicadas em 1948 [HEB48]. A computação evolutiva para NNs foi mencionada em um relatório não publicado de 1948 [TUR1]. Diversas NNs de aprendizagem concretas foram publicadas em 1958 [R58], 1961 [R61][ST61-95] e 1962 [WID62]. No entanto, embora esses artigos sobre NN de meados do século XX sejam de interesse histórico, ELES TÊM NA VERDADE MENOS A VER COM IA MODERNA DO QUE O MUITO MAIS ANTIGO NN ADAPTATIVO de Gauss & Legendre, ainda muito usado hoje, a base de todas as NNs, incluindo as recentes e mais profundas [DL25]. A NN Gauss-Legendre de mais de 2 séculos atrás [NN25] possui uma camada de entrada com várias unidades de entrada, e uma camada de saída. Para simplificar, vamos supor que esta última consista em uma única unidade de saída. Cada unidade de entrada pode conter um número de valor real e é conectada à unidade de saída por uma conexão com peso de valor real. A saída da NN é a soma dos produtos das entradas e seus pesos. Dado um conjunto de treinamento de vetores de entrada e os valores-alvo desejados para cada um deles, os pesos das NN são ajustados de modo que a soma dos erros quadráticos entre as saídas das NN e os alvos correspondentes seja minimizada [DLH]. Agora a NN pode ser usada para processar dados de teste que não eram vistos anteriormente. Claro, naquela época isso não era chamado de NN, porque as pessoas nem sabiam sobre neurônios biológicos ainda – a primeira imagem microscópica de uma célula nervosa foi criada décadas depois por Valentin em 1836, e o termo "neurônio" foi cunhado por Waldeyer em 1891 [CAJ06]. Em vez disso, a técnica foi chamada de Método dos Mínimos Quadrados, também amplamente conhecido em estatística como Regressão Linear. Mas é MATEMICAMENTE IDÊNTICO às NNs lineares de 2 camadas de hoje: MESMO algoritmo básico, MESMA função de erro, MESMOS parâmetros/pesos adaptativos. Essas NNs simples realizam "aprendizado superficial", em oposição ao "aprendizado profundo" com muitas camadas não lineares [DL25]. Na verdade, muitos cursos modernos de NN começam introduzindo esse método e depois avançam para NNs mais complexos e profundos [DLH]. Até mesmo as aplicações do início do século XIX eram semelhantes às de hoje: aprender a prever o próximo elemento de uma sequência, dado os elementos anteriores. É ISSO QUE O CHATGPT FAZ! O primeiro exemplo famoso de reconhecimento de padrões por meio de uma NN data de mais de 200 anos: a redescoberta do planeta anão Ceres em 1801 por meio de Gauss, que coletou pontos de dados ruidosos de observações astronômicas anteriores e depois os usou para ajustar os parâmetros de um preditor, que basicamente aprendeu a generalizar a partir dos dados de treinamento para prever corretamente a nova localização de Ceres. Foi isso que tornou o jovem Gauss famoso [DLH]. As antigas NNs Gauss-Legendre ainda são usadas hoje em inúmeras aplicações. Qual é a principal diferença em relação às NNs usadas em algumas das aplicações impressionantes de IA desde a década de 2010? Estes últimos são tipicamente muito mais profundos e possuem muitas camadas intermediárias de unidades de aprendizado "ocultas". Quem inventou isso? Resposta curta: Ivakhnenko & Lapa (1965) [DEEP1-2]. Outros refinaram esse [DLH]. Veja também: quem inventou o deep learning [DL25]? Algumas pessoas ainda acreditam que as NNs modernas foram de alguma forma inspiradas pelo cérebro biológico. Mas isso simplesmente não é verdade: décadas antes da descoberta das células nervosas biológicas, a simples engenharia e a resolução matemática de problemas já levaram ao que hoje se chama de NNs. Na verdade, nos últimos 2 séculos, não mudou tanto na pesquisa em IA: em 2025, o progresso das NN ainda é impulsionado principalmente pela engenharia, e não por insights neurofisiológicos. (Certas exceções que datam de várias décadas [CN25] confirmam a regra.) Nota de rodapé 1. Em 1958, NNs simples no estilo de Gauss & Legendre foram combinadas com uma função de limiar de saída para obter classificadores de padrões chamados Perceptrons [R58][R61][DLH]. Surpreendentemente, os autores [R58][R61] pareciam não ter conhecimento do muito anterior NN (1795-1805), conhecido no campo da estatística como "método dos mínimos quadrados" ou "regressão linear". Notavelmente, as NNs de 2 camadas mais usadas hoje são as da Gauss & Legendre, não as dos anos 1940 [MC43] e 1950 [R58] (que nem eram diferenciáveis)! REFERÊNCIAS SELECIONADAS (muitas referências adicionais em [NN25] - veja o link acima): [CAJ88] S. R. Cajal. Estrutura dos centros nervosos das aves. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 1-10. [CAJ88b] S. R. Cajal. Sobre as fibras nervosas da capa molecular do cerebelo. Rev. Trim. Histol. Norm. Patol., 1 (1888), pp. 33-49. [CAJ89] Conexão geral dos elementos nervosos. Med. Práct., 2 (1889), pp. 341-346. [CAJ06] F. López-Muñoz, J. Boya venceu, C. Alamo (2006). A teoria dos neurônios, a pedra angular da neurociência, no centenário do prêmio Nobel concedido a Santiago Ramón y Cajal. Brain Research Bulletin, Volume 70, Edições 4–6, 16 de outubro de 2006, Páginas 391-405. ...