الرابط العجيب بين الشبكات العصبونية العميقة وطبيعة الكون
المعلوماتية >>>> الذكاء الصنعي
لكن هناك مشكلة! الرياضيون مذهولون لأنه لا يوجد أيُّ تفسيرٍ رياضي لأسباب نجاح الشبكات المرتَّبة في عدة طبقاتٍ أمام التحديات المختلفة. بعيداً عن النَّجاح الكبير الذي حقَّقته الشبكات العصبونية العميقة، إلا أنه لا يوجد أيُّ شخصٍ واثقٍ من أسباب تحقيق هذه النجاحات.
Henry Lin من جامعة Harvard، وMax Tegmark من جامعة MIT، يعتبران أنَّ سبب الحَرَج الذي وقع فيه علماءُ الرياضيات، هو أن أسباب هذه النجاحات تعتمد على النُّظم الحاكمة لعلم الفيزياء وليس الرياضيات.
في البداية، ولدراسة المشكلة بشكلٍ أوضح سنأخذ مثالاً لعمليَّةِ تصنيفِ صورةٍ ذات حجم ميجابِت (megabit)، رمادية اللون (grayscale)، لتحديد ما إذا كانت تحتوي على قط أو على كلب.
تتكون هذه الصورة من مليون بكسل (pixel)، إذ أنَّ كلَّ بكسلٍ يأخذُ قيمةً واحدةً من 256 قيمةٍ ممكنةٍ للتدرج الرمادي (grayscale). لذلك، نظرياً هناك 256^1000000 صورةٍ محتملة، ولكل احتماليَّةٍ لا بُدَّ من حساب ما إذا كانت تحتوي على قطٍّ أو على كلب. إن الشبكات العصبونيَّة والتي تحتوي على الآلاف أو الملايين من المعاملات (parameters)، وبطريقةٍ معينةٍ تقوم بأداء عملية التصنيف هذه بكل سهولة.
باستعمال لغة الرياضيات، فإن الشبكات العصبونية تعمل على استبدال معادلاتٍ رياضيةٍ معقدةٍ بأخرى مبسطةٍ وتقديريةٍ لها. فمثلاً لحل مشكلة تصنيف صور الكلاب والقطط، يجب على الشبكات العصبونية أن تقوم ببناء تابعٍ يستقبل مليون بكسلٍ ضمن التَّدرج الرمادي (grayscale)، ليعطي التَّوزيع الاحتمالي لِمَا يُمكن أن تمثِّله هذه الصورة.
المشكلة أن هناك الكثير من التَّوابع الرياضية، ومن غير الممكن للشبكات تقديرُها جميعاً. لكنَّ الغريب أن الشبكات العصبونية العميقة وبطريقةٍ ما، قادرةٌ على إعطاء الجواب الصحيح.
قام ناو لين (Now Lin) وتجمارك (Tegmark) بإيجاد السبَّب. تكمُنُ الإجابة في أنَّ الكون مُحكَمٌ وفق مجموعةٍ جزئيةٍ من مجموع كل التوابع الرياضية الممكنة. بمعنى آخر، عند كتابة أيِّ قانونٍ فيزيائي بشكلٍ رياضي، فمن الممكن التعبير عنه باستخدام توابع رياضية ذات خصائص مميزة و بسيطة. وبنفس الطريقة، لا يجب على الشبكات العصبونية العميقة تقدير جميع التوابع الرياضية الممكنة، بل فقط مجموعة جزئية صغيرة منها.
هناك أيضاً خاصيَّةٌ أُخرى مهمّةٌ لقوانين الفيزياء. عادةً ما تكون هذه القوانين متناظرةً عندما يتعلَّق الأمر بالإزاحة أو الدوران. فدوران قطةٍ 360 درجة لن يُغيِّر مِن شكلها. كذلك بالنسبة للإزاحة، فلن يتغيَّر شكل القطة إذا أُزيحت متراً واحد أو 100 متر. هذه الخاصية لها دورٌ كبير في تبسيط عملية تحديد القطة أو الكلب في الصورة.
خاصيَّةٌ أخرى تقوم الشبكات العصبونية باستثمارها، وهي خاصية البنية الهرمية للكون. فالجسيمات الأوليَّة تُشكل الذرات، والتي بدورها تشكل الجزيئات، الخلايا، الكائنات الحية، الكواكب، المجموعات الشمسية، والمجرات. فالبنية المعقدة عادةً ما تتشكل من خلال سلسلة من خطوات أبسط.
هذا يفسِّر سبب كَونِ بُنيةِ الشَّبكات العصبونية أمراً مهماً للغاية، فتستطيع كلُّ طبقةٍ تقديرَ كُلِّ خُطوةٍ بشكلٍ سَبَبيٍّ متسلسِل.
قدّمَ ناو لين (Now Lin) تجمارك (Tegmark) مثالاً عن أشعّةٍ مُعيّنةٍ وُجِدَتْ نتيجةً للانفجار الكبير الذي تخلَّل الكون، إذ أنَّه في السنوات الأخيرة، قامت عدةُ مركباتٍ فضائيةٍ برسمِ خرائطَ لأماكنِ تواجدِ هذه الأشعَّة بدقّةٍ أعلى من أيِّ وقتٍ مضى. وقد تحيَّر علماء الفيزياء عن سببِ الأشكال التي كانت عليها هذه الخرائط.
وأشار ناو لين (Now Lin) وتجمارك (Tegmark) إلى أنه مهما كان السبب، فمما لا شكَّ فيه أنَّه نتيجةٌ لتسلسلٍ سببيٍّ هرميّ، إذ أنّ كلَّ طبقةٍ من طبقات هذه السلسلة الهرمية تحتوي على كميّةٍ أكبر من البيانات الموجودة في الطبقة السابقة لها. فمثلاً لا يوجد سوى عددٌ قليلٌ من المُعامِلاتِ الكونية (parameters)، ولكنَّ الخرائط والضوضاء التي تحتويها تتكونُ من بلايين الأرقام، وهدف الفيزياء هو تحليل هذه الأرقام الكبيرة للكشف عن الأخرى الصغيرة.
لذلك فإنّ أيَّ ظاهرةٍ تتكوَّنُ من بنيةٍ هرمية، تجعلُ الشبكاتُ العصبونية من عمليةِ تحليلِها أمراً سهلاً بشكلٍ ملحوظ.
Image: https://www.technologyreview.com/s/602344/the-extraordinary-link-between-deep-neural-networks-and-the-nature-of-the-universe/
توَضح الصورة السابقة مثالاً في الفيزياء، لسلسلةِ مُسبِّباتٍ ذاتِ طابعٍ هرميّ (الجهة اليسرى من الصورة)، ومثالاً آخرَ لعمليةِ تصنيفٍ للصور (الجهة اليمنى من الصورة). يؤدّي تدفُّقُ المعلومات من أعلى إلى أسفل إلى ضياعِ بعضٍ منها بسبب عمليات ماركوف العشوائية (random Markov processes). وعند محاولة استعادة المعلومات من أسفل إلى أعلى بطريقة مثلى، فلن تضيع أي معلومات أخرى.
إن نجاح التعلم العميق والرخيص لا يعتمد فقط على الرياضيات، بل يعتمد أيضاً على الفيزياء التي تُفضِّل فئاتٍ معينة من التوزيعات الاحتمالية البسيطة، والتي يُعتبر التعلُّمُ العميقُ الأفضلَ في نمذجتها.
تركَ هذا العمل المثير آثاراً كبيرة. فالشبكات العصبونية الاصطناعية مشهورةٌ باعتمادها على بنية العصبونات الحيوية. لذا فإن ناو لين (Now Lin) وتجمارك (Tegmark) لم يفسِّرا فقط سبب جدوى ونجاح الشبكات العصبونية العميقة، بل شرحا أيضاً لَمَ العقول البشريَّة قادرةٌ على فهم هذا الكون. فبنية الدماغ بطريقةٍ أو بأخرى قادرة على تبسيطِ الأمور وفهمها بغض النظر عن التعقيد المحيط بهذا الكون. وفتح هذا العمل أبواباً جديدةً أمام تقدُّم الذكاء الصنعي.
الآن وقد تم فهم لِمَ تعملُ الشبكات العصبونية بشكلٍ باهر. أصبح باستطاعة علماء الرياضيات العملُ على استكشاف الخصائص الرياضية التي تقودها لأداءٍ جيد. فالفهم التحليلي للتعلم العميق سيقود إلى طُرُقٍ أفضل لزيادة عجلة تطويره.
------------------------------------------------------------------
المصادر:
هنا
هنا