المعالمُ الأساسيَّة في تاريخ تطوّر الشَّبكات العصبونيَّة
الهندسة والآليات >>>> التكنولوجيا
في البرمجة التَّقليديَّة نخبر الحاسوب ماذا يفعل، أمَّا في الشَّبكات العصبونيَّة يتعلم الحاسوب من البيانات الّتي يُلاحظها، ثمَّ يجد حلوله الخاصة لكل مشكلة(1).
Image: SYR-RES
كانت البداية في 1943 مع ورقة نُشرت بعنوان "الحسابات المنطقيَّة للأفكار الأساسية في النشاط العصبي"، بهدف فهم كيفيَّة قيام المخ بالأعمال المعقدة بواسطة العصبونات المكونة له(2).
Image: SYR-RES
قدّمت نموذجًا مبسطًا للعصبون، بهدف تشكيل عصبون صنعي محاكٍ له، ولذلك النموذج دور أساسي في علوم الحاسوب؛ إذ يُسمى ارتباط آلاف من هذه العصبونات بالشبكة العصبونيَّة الصنعيَّة Artificial Neural Network(3).
Image: SYR-RES
وبرهنت أنَّ شبكة العصبونات الصنعيَّة التي طُوّرت، يمكنها التعبير عن أية صيغة أو (معادلة) منطقيَّة، أي؛ العمليات التي تتم على النظام الثنائي في العد(3).
Image: SYR-RES
ثمَّ في عام 1949 وضع باحث قاعدة تقول إنَّ العصبونات التي تعمل مع بعضها في الوقت نفسه تزداد قوة الروابط بينها، واستُخدمت هذه القاعدة بصورةٍ واسعةٍ في الشَّبكات العصبونيَّة الصنعيَّة(4).
Image: SYR-RES
عام 1958 جعل فرانك روزينبلات Frank Rosenblatt العصبون جهازًا للتعرف إلى النسق، وأسماه البيرسيبترون Perceptron(المدرك)؛ إذ أوصله بوحدات معالجة مبدئية تتعرف إلى أشياء محددة في الدخل، وليس على الدخل كله(5).
Image: SYR-RES
مثال للتوضيح: في مخ القطط توجد خلايا تتعرف إلى الحواف فقط دون غيرها، وخلايا أخرى تتعرف إلى خط في اتجاه معين؛ أي أنَّ نموذج "روزينبلات" محاكاة لواقعنا العضوي(5).
Image: SYR-RES
الشكل النهائي للبيرسيبترون هو أساس بناء الشَّبكات العصبونيَّة: طبقة دخل تتألف من وحدات المعالجة المبدئيَّة، تأخذ الدخل العام وترسل خرجها لطبقة خرج، تتألف من عصبون واحد، وخرجه هو الخرج العام(5).
Image: SYR-RES
أَدخلت بعدها تطويرات على نموذج البيرسيبترون والقوانين الناظمة لعمله في التنبؤ بنتائج توابع معينة، حتى جاء العام 1969 حاملًا معه كتابًا نقديًّا، باسم "البيرسبترون: مقدمة في الهندسة الحسابيَّة"(6).
Image: SYR-RES
حكم هذا الكتاب على مشروع الشَّبكات العصبونيَّة بالهلاك؛ إذ لا يعطي البيرسبترون نتائج صحيحة سوى مع التوابع الخطيَّة، وهذا ما جعل الأبحاث في هذا المجال تتوقف تقريبًا حتى الثمانينات(6).
Image: SYR-RES
في عام 1986 قدّم ثلاثة باحثين في جامعة كاليفورنيا حلًا عبر دمج عدة بيرسيبترون في شبكة من عدة طبقات، وأعطوها طريقة جديدة في التَّعلم؛ لتستطيع التعامل مع التوابع غير الخطيَّة(7).
Image: SYR-RES
استمرت هذه الشَّبكة بالتطور، وإضافة طرائق جديدة حتى وصلت إلى مفهوم ثوري في التسعينيات هو التَّعلم العميق (Deep Learning)، الّذي أصبح أساسيًّا في مجال التعرف إلى النسق في الألفيَّة الجديدة(8).
Image: SYR-RES
التَّعلم العميق شرحه يطول، ويمكن مراجعة المصادر لدراسته؛ ولكن لنعطي فكرة عنه، هو عميق لدرجة أنَّه ورغم انتشاره بصورةٍ واسعةٍ في التَّعرف إلى الوجوه والأصوات ومعالجة النصوص بصورةٍ فعالةٍ، يتساءل العلماء: لماذا هو فعال إلى هذه الدرجة؟ (9).
Image: SYR-RES
المصادر:
2. Marsalli M. McCulloch-Pitts Neurons [Internet]. 2007 [cited 8 July 2021]. Available from: هنا
3. Marsalli M. McCulloch-Pitts Neurons - Introductory Level (page 1) [Internet]. 2007 [cited 8 July 2021]. Available from:
هنا
4. Lee C. Appedix D: Artificial Neural Network [Internet]. Web.mit.edu. [cited 9 July 2021]. Available from: هنا
5. Marsalli M. McCulloch-Pitts Neurons - Introductory Level (page 5) [Internet]. 2007 [cited 8 July 2021]. Available from:
هنا
6. History of the Perceptron [Internet]. Web.csulb.edu. [cited 9 July 2021]. Available from: هنا
7. Schmidhuber J. Deep Learning in Neural Networks: An Overview [Internet]. Manno-Lugano: The Swiss AI Lab IDSIA; 2014 [cited 9 July 2021]. Available from: هنا
8. Rumelhart D, Hinton G, Williams R. Learning representations by back-propagating Errors. Nature [Internet]. 1986 [cited 9 July 2021];. Available from: هنا
9. Sejnowski T. The unreasonable effectiveness of deep learning inartificial intelligence [Internet]. National Academy of Sciences. 2020 [cited 9 July 2021]. Available from: هنا