AI hiện đại dựa trên mạng nơ-ron nhân tạo (NNs). Ai là người phát minh ra chúng? Mạng nơ-ron sinh học được phát hiện vào những năm 1880 [CAJ88-06]. Thuật ngữ "nơ-ron" được đặt ra vào năm 1891 [CAJ06]. Nhiều người nghĩ rằng NNs được phát triển SAU đó. Nhưng thực tế không phải vậy: các NNs "hiện đại" đầu tiên với 2 lớp đơn vị đã được phát minh hơn 2 thế kỷ trước (1795-1805) bởi Legendre (1805) và Gauss (1795, chưa công bố) [STI81], khi việc tính toán tốn kém gấp hàng triệu lần so với năm 2025. Đúng là, thuật ngữ mạng nơ-ron nhân tạo chỉ được giới thiệu muộn hơn nhiều vào những năm 1900. Ví dụ, một số NNs không học đã được thảo luận vào năm 1943 [MC43]. Những suy nghĩ không chính thức về một quy tắc học NN đơn giản đã được công bố vào năm 1948 [HEB48]. Tính toán tiến hóa cho NNs đã được đề cập trong một báo cáo chưa công bố năm 1948 [TUR1]. Nhiều NNs học cụ thể đã được công bố vào năm 1958 [R58], 1961 [R61][ST61-95], và 1962 [WID62]. Tuy nhiên, trong khi các bài báo NN của giữa thế kỷ 20 có giá trị lịch sử, CHÚNG THỰC SỰ CÓ ÍT LIÊN QUAN ĐẾN AI HIỆN ĐẠI HƠN NNs THÍCH NGHI CŨ HƠN của Gauss & Legendre, vẫn được sử dụng rộng rãi ngày nay, là nền tảng của tất cả các NNs, bao gồm cả các NNs sâu hơn gần đây [DL25]. NN Gauss-Legendre từ hơn 2 thế kỷ trước [NN25] có một lớp đầu vào với nhiều đơn vị đầu vào, và một lớp đầu ra. Để đơn giản, hãy giả định rằng lớp sau bao gồm một đơn vị đầu ra duy nhất. Mỗi đơn vị đầu vào có thể giữ một số giá trị thực và được kết nối với đơn vị đầu ra qua một kết nối với trọng số giá trị thực. Đầu ra của NN là tổng của các sản phẩm của các đầu vào và trọng số của chúng. Với một tập huấn luyện các vectơ đầu vào và các giá trị mục tiêu mong muốn cho mỗi đầu vào, trọng số của NN được điều chỉnh sao cho tổng của các sai số bình phương giữa các đầu ra của NN và các mục tiêu tương ứng được tối thiểu hóa [DLH]. Bây giờ NN có thể được sử dụng để xử lý dữ liệu kiểm tra chưa thấy trước đó. Tất nhiên, vào thời điểm đó, điều này không được gọi là một NN, vì mọi người thậm chí không biết về các nơ-ron sinh học - hình ảnh vi mô đầu tiên của một tế bào thần kinh được tạo ra nhiều thập kỷ sau đó bởi Valentin vào năm 1836, và thuật ngữ "nơ-ron" được đặt ra bởi Waldeyer vào năm 1891 [CAJ06]. Thay vào đó, kỹ thuật này được gọi là Phương pháp Bình phương tối thiểu, cũng được biết đến rộng rãi trong thống kê như Hồi quy tuyến tính. Nhưng nó VỀ MẶT TOÁN HỌC LÀ ĐỒNG NHẤT với các NNs 2 lớp tuyến tính ngày nay: CÙNG một thuật toán cơ bản, CÙNG một hàm lỗi, CÙNG các tham số/trọng số thích nghi. Những NNs đơn giản như vậy thực hiện "học nông", trái ngược với "học sâu" với nhiều lớp phi tuyến tính [DL25]. Thực tế, nhiều khóa học NN hiện đại bắt đầu bằng cách giới thiệu phương pháp này, sau đó chuyển sang các NNs phức tạp hơn, sâu hơn [DLH]. Ngay cả các ứng dụng của những năm 1800 cũng tương tự như ngày nay: học để dự đoán phần tử tiếp theo của một chuỗi, dựa trên các phần tử trước đó. ĐÓ LÀ NHỮNG GÌ CHATGPT LÀM! Ví dụ nổi tiếng đầu tiên về nhận dạng mẫu thông qua một NN có từ hơn 200 năm trước: sự phát hiện lại của hành tinh lùn Ceres vào năm 1801 thông qua Gauss, người đã thu thập các điểm dữ liệu nhiễu từ các quan sát thiên văn trước đó, sau đó sử dụng chúng để điều chỉnh các tham số của một bộ dự đoán, mà về cơ bản đã học để tổng quát hóa từ dữ liệu huấn luyện để dự đoán chính xác vị trí mới của Ceres. Đó là điều đã làm cho Gauss trẻ tuổi nổi tiếng [DLH]. Các NNs Gauss-Legendre cũ vẫn đang được sử dụng ngày nay trong vô số ứng dụng. Sự khác biệt chính giữa các NNs được sử dụng trong một số ứng dụng AI ấn tượng từ những năm 2010 là gì? Những cái sau thường sâu hơn nhiều và có nhiều lớp trung gian của các đơn vị học "ẩn". Ai là người phát minh ra điều này? Câu trả lời ngắn gọn: Ivakhnenko & Lapa (1965) [DEEP1-2]. Những người khác đã tinh chỉnh điều này [DLH]. Xem thêm: ai là người phát minh ra học sâu [DL25]? Một số người vẫn tin rằng các NNs hiện đại được lấy cảm hứng từ não sinh học. Nhưng điều đó đơn giản là không đúng: hàng thập kỷ trước khi các tế bào thần kinh sinh học được phát hiện, việc giải quyết vấn đề kỹ thuật và toán học đã dẫn đến những gì bây giờ được gọi là NNs. Thực tế, trong 2 thế kỷ qua, không có nhiều thay đổi trong nghiên cứu AI: tính đến năm 2025, tiến bộ của NN vẫn chủ yếu được thúc đẩy bởi kỹ thuật, không phải bởi những hiểu biết về sinh lý thần kinh. (Một số ngoại lệ có từ nhiều thập kỷ trước [CN25] xác nhận quy tắc.) Chú thích 1. Vào năm 1958, các NNs đơn giản theo phong cách của Gauss & Legendre đã được kết hợp với một hàm ngưỡng đầu ra để tạo ra các bộ phân loại mẫu gọi là Perceptrons [R58][R61][DLH]. Thật ngạc nhiên, các tác giả [R58][R61] dường như không nhận thức được NN sớm hơn nhiều (1795-1805) nổi tiếng trong lĩnh vực thống kê như "phương pháp bình phương tối thiểu" hoặc "hồi quy tuyến tính." Đáng chú ý, các NNs 2 lớp được sử dụng thường xuyên nhất ngày nay là của Gauss & Legendre, không phải của những năm 1940 [MC43] và 1950 [R58] (mà thậm chí không thể phân biệt được)! TÀI LIỆU THAM KHẢO ĐƯỢC CHỌN (nhiều tài liệu tham khảo bổ sung trong [NN25] - xem liên kết ở trên): [CAJ88] S. R. Cajal. Cấu trúc của các trung tâm thần kinh của các loài chim. Rev. Trim. Histol. Norm. Patol., 1 (1888), trang 1-10. [CAJ88b] S. R. Cajal. Về các sợi thần kinh của lớp phân tử của tiểu não. Rev. Trim. Histol. Norm. Patol., 1 (1888), trang 33-49. [CAJ89] Kết nối chung của các yếu tố thần kinh. Med. Práct., 2 (1889), trang 341-346. [CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Lý thuyết nơ-ron, nền tảng của khoa học thần kinh, vào kỷ niệm 100 năm giải Nobel trao cho Santiago Ramón y Cajal. Brain Research Bulletin, Tập 70, Số 4–6, 16 tháng 10 năm 2006, Trang 391-405. ...