Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI modern didasarkan pada jaring saraf buatan (NN). Siapa yang menemukannya?
Jaring saraf biologis ditemukan pada tahun 1880-an [CAJ88-06]. Istilah "neuron" diciptakan pada tahun 1891 [CAJ06]. Banyak yang berpikir bahwa NN dikembangkan SETELAH itu. Tapi bukan itu masalahnya: NN "modern" pertama dengan 2 lapisan satuan ditemukan lebih dari 2 abad yang lalu (1795-1805) oleh Legendre (1805) dan Gauss (1795, tidak diterbitkan) [STI81], ketika komputasi triliunan kali lebih mahal daripada pada tahun 2025.
Benar, terminologi jaring saraf buatan diperkenalkan hanya jauh kemudian pada tahun 1900-an. Misalnya, NN non-pembelajaran tertentu dibahas pada tahun 1943 [MC43]. Pemikiran informal tentang aturan pembelajaran NN sederhana diterbitkan pada tahun 1948 [HEB48]. Komputasi evolusi untuk NN disebutkan dalam laporan tahun 1948 yang tidak diterbitkan [TUR1]. Berbagai NN pembelajaran konkret diterbitkan pada tahun 1958 [R58], 1961 [R61][ST61-95], dan 1962 [WID62].
Namun, sementara makalah NN dari pertengahan 1900-an ini menarik secara historis, MEREKA SEBENARNYA TIDAK ADA HUBUNGANNYA DENGAN AI MODERN DARIPADA NN ADAPTIF YANG JAUH LEBIH TUA oleh Gauss & Legendre, yang masih banyak digunakan hingga saat ini, fondasi dari semua NN, termasuk NN yang lebih dalam baru-baru ini [DL25].
NN Gauss-Legendre dari lebih dari 2 abad yang lalu [NN25] memiliki lapisan input dengan beberapa unit input, dan lapisan output. Untuk kesederhanaan, mari kita asumsikan yang terakhir terdiri dari satu unit keluaran. Setiap unit input dapat menampung angka bernilai nyata dan terhubung ke unit keluaran dengan koneksi dengan bobot bernilai nyata. Output NN adalah jumlah produk input dan bobotnya. Mengingat serangkaian pelatihan vektor input dan nilai target yang diinginkan untuk masing-masing, bobot NN disesuaikan sedemikian rupa sehingga jumlah kesalahan kuadrat antara output NN dan target yang sesuai diminimalkan [DLH]. Sekarang NN dapat digunakan untuk memproses data pengujian yang sebelumnya tidak terlihat.
Tentu saja, saat itu ini tidak disebut NN, karena orang bahkan belum tahu tentang neuron biologis - gambar mikroskopis pertama dari sel saraf dibuat beberapa dekade kemudian oleh Valentin pada tahun 1836, dan istilah "neuron" diciptakan oleh Waldeyer pada tahun 1891 [CAJ06]. Sebaliknya, teknik ini disebut Metode Kuadrat Terkecil, juga dikenal luas dalam statistik sebagai Regresi Linier. Tapi secara matematis IDENTIK dengan NN linier 2-lapis saat ini: algoritma dasar SAMA, fungsi kesalahan SAMA, parameter/bobot adaptif SAMA. NN sederhana seperti itu melakukan "pembelajaran dangkal", berlawanan dengan "pembelajaran mendalam" dengan banyak lapisan nonlinier [DL25]. Faktanya, banyak kursus NN modern dimulai dengan memperkenalkan metode ini, kemudian beralih ke NN [DLH] yang lebih kompleks dan lebih dalam.
Bahkan aplikasi awal 1800-an mirip dengan hari ini: belajar memprediksi elemen berikutnya dari suatu urutan, mengingat elemen sebelumnya. ITULAH YANG DILAKUKAN CHATGPT! Contoh terkenal pertama dari pengenalan pola melalui NN sudah ada lebih dari 200 tahun yang lalu: penemuan kembali planet kerdil Ceres pada tahun 1801 melalui Gauss, yang mengumpulkan titik data berisik dari pengamatan astronomi sebelumnya, kemudian menggunakannya untuk menyesuaikan parameter prediktor, yang pada dasarnya belajar untuk menggeneralisasi dari data pelatihan untuk memprediksi lokasi baru Ceres dengan benar. Itulah yang membuat Gauss muda terkenal [DLH].
NN Gauss-Legendre lama masih digunakan hingga saat ini dalam aplikasi yang tak terhitung banyaknya. Apa perbedaan utama dengan NN yang digunakan dalam beberapa aplikasi AI yang mengesankan sejak tahun 2010-an? Yang terakhir biasanya jauh lebih dalam dan memiliki banyak lapisan perantara dari unit "tersembunyi" pembelajaran. Siapa yang menemukan ini? Jawaban singkat: Ivakhnenko & Lapa (1965) [DEEP1-2]. Yang lain menyempurnakan [DLH] ini. Lihat juga: siapa yang menemukan pembelajaran mendalam [DL25]?
Beberapa orang masih percaya bahwa NN modern entah bagaimana terinspirasi oleh otak biologis. Tapi itu sama sekali tidak benar: beberapa dekade sebelum sel-sel saraf biologis ditemukan, rekayasa sederhana dan pemecahan masalah matematika telah mengarah pada apa yang sekarang disebut NN. Faktanya, dalam 2 abad terakhir, tidak banyak yang berubah dalam penelitian AI: pada tahun 2025, kemajuan NN sebagian besar masih didorong oleh teknik, bukan oleh wawasan neurofisiologis. (Pengecualian tertentu yang berasal dari beberapa dekade yang lalu [CN25] mengkonfirmasi aturan tersebut.)
Catatan kaki 1. Pada tahun 1958, NN sederhana dalam gaya Gauss & Legendre dikombinasikan dengan fungsi ambang output untuk mendapatkan pengklasifikasi pola yang disebut Perceptrons [R58][R61][DLH]. Yang mengherankan, para penulis [R58][R61] tampaknya tidak menyadari NN yang jauh lebih awal (1795-1805) yang terkenal di bidang statistik sebagai "metode kuadrat terkecil" atau "regresi linier." Hebatnya, NN 2-layer yang paling sering digunakan saat ini adalah yang dari Gauss & Legendre, bukan dari tahun 1940-an [MC43] dan 1950-an [R58] (yang bahkan tidak dapat dibedakan)!
REFERENSI TERPILIH (banyak referensi tambahan di [NN25] - lihat tautan di atas):
[CAJ88] S. R. Cajal. Estructura de los centros nerviosos de las aves. Pendeta Trim. Sejarah. Norm. Patol., 1 (1888), hlm. 1-10.
[CAJ88b] S. R. Cajal. Sobre las fibras nerviosas de la capa molecular del cerebelo. Pendeta Trim. Sejarah. Norm. Patol., 1 (1888), hlm. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. Med. Práct., 2 (1889), hlm. 341-346.
[CAJ06] F. López-Muñoz, J. Boya b, C. Alamo (2006). Teori neuron, landasan ilmu saraf, pada peringatan seratus tahun penghargaan Hadiah Nobel kepada Santiago Ramón y Cajal. Buletin Penelitian Otak, Volume 70, Edisi 4–6, 16 Oktober 2006, Halaman 391-405.
...

Teratas
Peringkat
Favorit

