المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
يعتمد الذكاء الاصطناعي الحديث على شبكات عصبية اصطناعية (NNs). من اخترعها؟
تم اكتشاف شبكات عصبية بيولوجية في ثمانينيات القرن التاسع عشر [CAJ88-06]. تم صياغة مصطلح "عصبون" في عام 1891 [CAJ06]. يعتقد الكثيرون أن NNs تطورت بعد ذلك. لكن هذا ليس صحيحا: فقد تم اختراع أول NNs "حديثة" ذات طبقتين من الوحدات قبل أكثر من قرنين (1795-1805) بواسطة ليجندر (1805) وغاوس (1795، غير منشور) [STI81]، عندما كانت الحوسبة أغلى بعدة تريليونات مرات مما كانت عليه في 2025.
صحيح أن مصطلحات الشبكات العصبية الاصطناعية لم تقدم إلا في وقت لاحق بكثير في القرن العشرين. على سبيل المثال، تمت مناقشة بعض الشبكات غير المتعلمة في عام 1943 [MC43]. تم نشر أفكار غير رسمية حول قاعدة تعلم بسيطة ل NN في عام 1948 [HEB48]. تم ذكر الحوسبة التطورية للشبكات الخيالية في تقرير غير منشور عام 1948 [TUR1]. تم نشر عدة روايات تعلم ملموس في أعوام 1958 [R58]، 1961 [R61][ST61-95]، و1962 [WID62].
ومع ذلك، بينما تعتبر أوراق NN من منتصف القرن العشرين ذات أهمية تاريخية، إلا أنها في الواقع أقل ارتباطا ب الذكاء الاصطناعي الحديثة مقارنة ب NN التكيفي الأقدم بكثير من Gauss & LEGENDRE، التي لا تزال مستخدمة بكثرة اليوم، وهي أساس جميع NNs، بما في ذلك NNs الأعمق الحديث [DL25].
شبكة غاوس-ليجندر NN من أكثر من قرنين مضت [NN25] تحتوي على طبقة إدخال تحتوي على عدة وحدات إدخال، وطبقة إخراج. للتبسيط، لنفترض أن الأخيرة تتكون من وحدة إخراج واحدة. يمكن لكل وحدة إدخال أن تحمل رقما حقيقيا ومرتبطة بوحدة الإخراج عبر اتصال بوزن حقيقي قيمة. مخرج الشبكة الوطنية هو مجموع حاصل ضرب المدخلات وأوزانها. عند إعطاء مجموعة تدريب من متجهات الإدخال وقيم الأهداف المرغوبة لكل منها، يتم تعديل أوزان NN بحيث يتم تقليل مجموع مربعات الأخطاء بين مخرجات NN والأهداف المقابلة [DLH]. الآن يمكن استخدام NN لمعالجة بيانات الاختبار التي لم ترى من قبل.
بالطبع، في ذلك الوقت لم يكن يسمى هذا الشبكة العصبية العصبية، لأن الناس لم يكونوا يعرفون حتى عن الخلايا البيولوجية بعد - فقد تم إنشاء أول صورة مجهرية لخلية عصبية بعد عقود بواسطة فالنتين في عام 1836، ومصطلح "عصبون" صاغه والداير في عام 1891 [CAJ06]. بدلا من ذلك، أطلق على التقنية اسم طريقة المربعات الصغرى (Least Squares)، والمعروفة أيضا في الإحصاء باسم الانحدار الخطي. لكنها متطابقة رياضيا مع شبكات NN الخطية ذات الطبقتين اليوم: نفس الخوارزمية الأساسية، نفس دالة الخطأ، نفس المعلمات/الأوزان التكيفية. تؤدي مثل هذه الشبكات البسيطة "التعلم السطحي"، على عكس "التعلم العميق" الذي يحتوي على العديد من الطبقات غير الخطية [DL25]. في الواقع، تبدأ العديد من دورات NN الحديثة بإدخال هذه الطريقة، ثم تنتقل إلى NNs أكثر تعقيدا وعمقا [DLH].
حتى تطبيقات أوائل القرن التاسع عشر كانت مشابهة لما هو عليه اليوم: تعلم التنبؤ بالعنصر التالي في التسلسل، مع إعطاء العناصر السابقة. هذا ما يفعله CHATGPT! أول مثال شهير على التعرف على الأنماط عبر NN يعود لأكثر من 200 عام: إعادة اكتشاف الكوكب القزم سيريس في عام 1801 عبر غاوس، الذي جمع نقاط بيانات صاخبة من ملاحظات فلكية سابقة، ثم استخدمها لضبط معلمات جهاز التنبؤ، الذي تعلم أساسا التعميم من بيانات التدريب للتنبؤ بالموقع الجديد لسيريس بشكل صحيح. هذا ما جعل الشاب غاوس مشهورا [DLH].
لا تزال شبكات غاوس-ليجندر القديمة تستخدم اليوم في عدد لا يحصى من التطبيقات. ما هو الفرق الرئيسي بين الشبكات التقنية المستخدمة في بعض تطبيقات الذكاء الاصطناعي المثيرة للإعجاب منذ العقد الثاني من الألفية؟ الأخيرة عادة ما تكون أعمق بكثير وتحتوي على العديد من طبقات التعلم "المخفية" الوسيطة. من اخترع هذا؟ الإجابة المختصرة: إيفاخنينكو & لابا (1965) [DEEP1-2]. وقام آخرون بتحسين هذا [DLH]. انظر أيضا: من اخترع التعلم العميق [DL25]؟
لا يزال بعض الناس يعتقدون أن الروايات العصبية الحديثة استلهمت بطريقة ما من الدماغ البيولوجي. لكن هذا غير صحيح إطلاقا: قبل عقود من اكتشاف الخلايا العصبية البيولوجية، أدت الهندسة البسيطة وحل المشكلات الرياضية إلى ما يسمى الآن NNs. في الواقع، خلال القرنين الماضيين، لم يتغير الكثير في أبحاث الذكاء الاصطناعي: حتى عام 2025، لا يزال تقدم الشبكات الطبيعية مدفوعا في الغالب بالهندسة، وليس بالرؤى الفسيولوجية العصبية. (بعض الاستثناءات التي تعود لعقود [CN25] تؤكد القاعدة.)
هامش 1. في عام 1958، تم دمج NNs بسيطة على طريقة Gauss & Legendre مع دالة عتبة إخراج للحصول على مصنفات أنماط تسمى Perceptrons [R58][R61][DLH]. ومن المدهش أن المؤلفين [R58][R61] بدوا غير مدركين للرواية السابقة (NN) (1795-1805) المعروفة في مجال الإحصاء باسم "طريقة المربعات الصغرى أو الانحدار الخطي". ومن اللافت أن أكثر شبكات NN ذات الطبقتين استخداما اليوم هي تلك الخاصة ب Gauss & Legendre، وليست تلك من الأربعينيات [MC43] والخمسينيات [R58] (التي لم تكن حتى قابلة للاشتقاق)!
مراجع مختارة (العديد من المراجع الإضافية في [NN25] - انظر الرابط أعلاه):
[CAJ88] س. ر. كاخال. Estructura de los centros nerviosos de las aves. القس تريم. هيستول. نورم. باتول.، 1 (1888)، الصفحات 1-10.
[CAJ88b] س. ر. كاخال. Sobre las fibras nerviosas de la capa molecular del cerebelo. القس تريم. هيستول. دورية نورم، 1 (1888)، ص. 33-49.
[CAJ89] Conexión general de los elementos nerviosos. مجلة طبية، 2 (1889)، الصفحات 341-346.
[CAJ06] ف. لوبيز-مونيوث، ج. بويا هزم، ك. ألامو (2006). نظرية الخلايا العصبية، حجر الأساس في علم الأعصاب، في الذكرى المئوية لجائزة نوبل لسانتياغو رامون إي كاخال. نشرة أبحاث الدماغ، المجلد 70، الأعداد 4–6، 16 أكتوبر 2006، الصفحات 391-405.
...

الأفضل
المُتصدِّرة
التطبيقات المفضلة

