الجانب المظلم السريُّ في الذكاء الصنعي
الهندسة والآليات >>>> منوعات هندسية
Image: https://images.techhive.com
تعلمت السيارة القيادة من مشاهدة الإنسان في شوارع ولاية كاليفورنيا وأوَّل تجربةٍ ذاتية القيادة استخدمت الخوارزميات أُنجِزت في مقاطعة مونموث؛ إذ كان الحصول على سيارة تقود بهذه الطريقة إنجازًا مثيرًا للإعجاب، ولكنَّه أيضًا غير مريحٍ بعض الشيء؛ نظرًا لأنَّه ليس من الواضح تمامًا كيف تتَّخذ السيارة قراراتها، إذ تنتقل المعلومات من مستشعرات السيارة مباشرة إلى شبكة ضخمةٍ من الخلايا العصبية الاصطناعية التي تعالج البيانات ومن ثمَّ إعطاء الأوامر المطلوبة لتشغيل عجلة القيادة والفرامل والأنظمة الأخرى. ويبدو أنَّ النتيجة تتطابق مع الاستجابات التي تتوقعها من سائق بشري، ولكن؛ ماذا لو حدث أمرٌ غير متوقع؟ مثل اصطدام السيارة بشجرة أو وقوفها على الضوء الأخضر عند إشارة المرور؟ سيكون من الصعب عندها معرفة السبب؛ لأنَّ النظام معقَّدٌ إلى درجة أنَّ المهندسين الذين صمَّموه قد يجدون صعوبةً من أجل تحديد سبب أي إجراءٍ منفرد، ولا يمكنك أن تسألَها، ولا توجد طريقةٌ واضحة لتصميم مثل هذا النظام بحيث يمكن دائمًا أن تشرحَ لماذا فعلت ما فعلت.
يُشير العقل الغامض لهذه السيارة إلى مشكلة تلوح في الأفق مع الذكاء الاصطناعي، فقد أثبتت تقنيةُ الذكاء الاصطناعي الكامنة في السيارة والمعروفة باسم التعلُّم العميق أنَّها فعالةٌ جدًّا في حل المشكلات في السنوات الأخيرة، وقد استُخدِمت على نطاق واسعٍ لمهام؛ مثل شرح الصور وتعرُّف الصوت وترجمة اللغات. الآن؛ هناك أملٌ في أنَّ التقنيات نفسها ستكون قادرة على تشخيص الأمراض القاتلة، واتخاذ القرارات التجارية الكبرى، وأشياء أخرى لا حصر لها في جميع المجالات، ولكن هذا لن يحدث -أو لا ينبغي أن يحدث- ما لم نعثر على طرائق لجعل تقنيات مثل التعلم العميق أكثر قابلية ليفهمها مصمِّميها ويثق بها مستخدموها، وإلا سيكون من الصعب التنبؤ بوقت حدوث الفشل - وهو أمرٌ حتمي؛ هذا أحد الأسباب لبقاء سيارة إنفيديا تحت التجربة.
Image: https://images.nvidia.com
حاليًّا؛ تُستخدَم النماذج الرياضية للمساعدة في تحديد من يمكن إعطاءه إفراج مشروط أو قرض أو الحصول على وظيفة، فإذا تمكَّنت من الوصول إلى هذه النماذج الرياضية؛ فسيكون من الممكن فهم منطقها، لكنَّ البنوك والجيش وأصحاب العمل وغيرهم يحوِّلون اهتمامهم الآن إلى مناهج تعلم آلية أكثر تعقيدًا يمكن أن تجعلَ عملية صنع القرار الآلي عمليةً غامضة تمامًا. يمثِّل التعلم العميق -وهو أكثر هذه الأساليب شيوعًا- طريقةً مختلفة كليًّا في برمجة أجهزة الحاسوب.
إذ يقول تومي جاكولا (الأستاذ في معهد ماساتشوستس للتكنولوجيا الذي يعمل على تطبيقات التعلم الآلي): "إنَّها مشكلةٌ مهمة بالفعل، وستكون أكثر أهمية في المستقبل سواء كان قرارًا استثماريًّا، أو قرارًا طبيًّا، أو ربما قرارًا عسكريًّا؛ فأنت لا تريد الاعتماد على طريقة مبهمة فقط".
هناك بالفعل نقاشٌ عن مدى أهمية القدرة على استجواب نظام الذكاء الاصطناعي من حيث كيفية التوصل إلى استنتاجاته؛ إذ بدأ الاتحاد الأوروبيُّ في صيف 2018 بالطلب من الشركات أن تقدِّمَ للمستخدمين تفسيرًا للقرارات التي تصل إليها الأنظمة الآلية، قد يكون هذا مستحيلًا حتى بالنسبة للأنظمة التي تبدو بسيطة نسبيًّا؛ مثل التطبيقات ومواقع الويب التي تستخدم التعلم العميق لعرض الإعلانات أو اقتراح الأغاني. لقد برمجت الحواسيب التي تقدم هذه الخدمات نفسها بطرائق لا يمكن فهمها، حتى المهندسون الذين يقومون ببناء هذه التطبيقات لا يمكنهم شرح سلوكها شرحًا كاملًا؛ إذ يقول جاكولا: "إذا كان لديك شبكةٌ عصبية صغيرة جدًّا؛ قد تتمكن من فهمها، ولكن بمجرد أن تصبحَ كبيرةً جدًّا، ولديها الآلاف من الوحدات لكل طبقةٍ وربما مئات الطبقات؛ عندها تصبح غير مفهومةٍ تمامًا".
بالتأكيد؛ نحن البشر لا نستطيع دائمًا شرح عمليات التفكير الخاصة بنا، ولكنَّنا نجد طرائقَ عن طريق الحدس لنثق بالناس ونقيِّم تصرفاتهم، هل سيكون ذلك ممكنًا أيضًا مع الآلات التي تفكِّر وتتخذ القرارات على نحوٍ مختلف عن الطريقة التي يختار بها الإنسان؟
لم نقم أبدًا ببناء آلات تعمل بالطرائق التي لا يفهمها مصمِّميها؛ إلى أي مدى يمكن أن نتوقعَ التواصل مع آلات ذكية والتوافق معها على الرغم من أنَّها قد تكون غير قابلة للتنبؤ وغامضة؟
في عام 2015؛ استلهمت مجموعةٌ بحثية في مستشفى ماونت سيناي في نيويورك تطبيق التعلم العميق على قاعدة بيانات المستشفى الواسعة الخاصة بسجلات المرضى، وتحتوي مجموعة البيانات هذه على مئات من المتغيرات فيما يخص المرضى مستمدَّة من نتائج اختباراتهم وزيارات الطبيب وما إلى ذلك. سمَّى الباحثون البرنامجَ الناتج بـ Deep Patient، ودُرِّب باستخدام بيانات من قرابة 700،000 شخص، وعندما اختُبِر على سجلات جديدة؛ أثبت أنَّه جيدٌ في التنبؤ بالمرض على نحوٍ لا يُصدَّق ودون أيِّ تعليمات من الخبراء، اكتشف Deep Patient مصفوفاتٍ مخبأة في بيانات المستشفى تستطيع أن تشير فيما إذا كان الناس في طريقهم إلى مجموعة واسعة من الأمراض، بما في ذلك سرطان الكبد.
في الوقت نفسه؛ كان Deep Patient محيرًا بعض الشيء؛ إذ إنَّه يتوقع بداية الاضطرابات النفسية مثل انفصام الشخصية على نحوٍ مدهش، ولكن لمَّا كان الفصامُ يصعب على الأطباء التنبؤ به؛ تساءل الباحثون عن كيفية حدوث ذلك. ولا تقدم الأداةُ الجديدة أيَّة فكرة عن كيفية أداء ذلك، فإذا كان شيءٌ مثل Deep Patient سيساعد الأطباء فعليًّا؛ فيجب أن يُعطيَ الأطباء الدليل المنطقيَّ لتنبؤه؛ ليطمئنهم على أنه دقيق ولتبرير -على سبيل المثال- أي تغيير في الأدوية التي تُوصَف لأحد الأشخاص، إذ يقول الباحثون أنه يمكنهم بناء هذه النماذج، ولكن لا يعرفون كيف تعمل.
لم يكن الذكاء الاصطناعيُّ دائمًا بهذه الطريقة، فمن البداية؛ كانت هناك مدرستان فكريتان بشأن كيف يجب على الذكاء الاصطناعي أن يكون مفهومًا أو كيف يمكن تفسيره. يعتقد كثيرون أنه من المنطقي بناء آلات تفكر وفق القواعد والمنطق؛ ممَّا يجعل أعمالهم الداخلية شفافة لكل من يهتم باختبار بعض الأكواد البرمجية فيها، في حين يرى آخرون أنَّ الذكاء سيخرج بسهولة أكبر إذا استلهمت الآلات من علم الأحياء، وتعلَّمت عن طريق المراقبة والتجارب بدلاً من كتابة الأوامر لحل مشكلة، إذ ينشأ البرنامج خوارزمية خاصة به تستند إلى بيانات يأخذها كمثال ويخرج المطلوب، ومن شأن تقنيات تعلم الآلة أن تطورَ فيما بعد إلى أقوى أنظمة الذكاء الاصطناعي؛ فالآلة تعمل أساسيًّا على برمجة نفسها.
فالتعلم العميق مسؤول عن توسع الذكاء الاصطناعي اليوم؛ إذ أعطى الحواسيب قوى استثنائية؛ مثل القدرة على تمييز الكلمات المنطوقة كإنسان تقريبًا، وهي مهارةٌ معقَّدة للغاية لا يمكن برمجة الآلة عليها يدويًّا، وبهذا؛ أدَّى التعلم العميق إلى تحويل مفهوم الحاسوب وتحسين الترجمة الآلية جيدًا، ويُستخدَم الآن لتوجيه جميع أنواع القرارات الرئيسية في الطب والبنوك والتصنيع وما بعدها.
إنَّ أساليب عمل أي تقنية تعلم آلي هي بطبيعتها أكثر تعتيمًا من البرمجة العادية حتى في نظر علماء الحاسوب، وهذا لا يعني أنَّ جميع تقنيات الذكاء الاصطناعي المستقبلية ستكون غير معروفة على حد سواء، ولكن بطبيعته؛ فإنَّ التعلم العميق هو صندوق أسودٌ غامض على نحوٍ خاص.
المصادر:
1- هنا
2- هنا
3- هنا