المعلوماتية > الذكاء الصنعي
الجانب المظلم من الذّكاء الصنعيّ (الجزء الأول)
سيّارة إنفيديا Nvidia
قامَ الباحثونَ في شركةِ إنفيديا Nvidia بتطويرِ سيّارةٍ ذاتيّةٍ القيادةِ، وانطلقت السّيّارةُ العامَ الماضي بشكلٍ تجريبيٍّ في شوارعِ ولايةِ نيوجيرسي الأمريكيّة. لا تبدو السَّيّارةُ مختلفةً عن غيرها من السَّيَّاراتِ ذاتيّةِ القيادةِ، ولكنَّها تختلفُ داخليًّا عن السَّيّاراتِ الّتي طوَّرتها جوجل وتسلا وجنرال موتورز، فالسَّيّارةُ لا يعتمدُ تشغيلُها على مجموعةٍ من البرامجِ الّتي تَحدِّدُ لأجزاءِ السَّيَّارةِ بدقةٍ ما الّذي يجبُ أن تقومَ به ومتّى وكيفَ تقومُ به، ولكنَّها تعتمدُ على خوارزميّةٍ علّمت نفسَها بنفسِها من خلالِ التَّعلُّم من الطّريقةِ الّتي يقومُ بها البشرُ بهذه المهمَّةِ، وللمزيد من التّفاصيلِ عن الذّكاءِ الاصطناعيِّ ومستقبلِه يمكنُ الرُّجوع لهذا الموضوعِ الّذي نُشر من قبل على جزأين هنا هنا
تمثِّلُ هذه السَّيَّاراتُ نقلةً نوعيّةً، إلّا أنّ عدمَ وضوحِ الطّريقةِ الّتي تتّخذُ بها السَّيَّارةُ قراراتِها على الطُّرقِ يمثِّلُ أمرًا لا يمكنُ إهمالَه. تنتقلُ المعلوماتُ من المستشعراتِ المُثبَّتةِ بالسَّيَّارةِ لشبكةٍ هائلةٍ من الخلايا العصبيّةِ الاصطناعيّةِ الّتي تقومُ بمعالجةِ هذه المعلوماتِ، لتُصدرَ الأوامرَ إلى عجلةِ القيادةِ، ومكابحِ السَّيَّارةِ وكافةِ أجزائها، لتنطلقَ السَّيَّارةُ كأيِّ سيَّارةٍ عاديّةٍ تتحرّكُ في شوارعِ مدنِنا اليوم.
لكن ماذا لو حدثَ أمرٌ غيرُ متوقَّعٍ، كاصطدامٍ مفاجىءٍ بشجرةٍ، أو توقُّفٍ عن الحركةِ في إشارةٍ خضراءَ؟
الطّريقةُ الّتي تعملُ بها هذه السَّيَّارةُ الآنَ تجعلُ من الصَّعبِ تتبُّعَ أسبابٍ مثل هذه الحوادث المفاجئة، فالنُّظُمُ الّتي تعملُ بها السَّيَّارةُ على درجةٍ كبيرةٍ من التَّعقيدِ، ما يُصعِّبُ من عمليّةِ تفسيرِ تحركاتها على الطّريق، حتّى على المهندسينَ الّذين قاموا بتصميمِ هذه النُّظم، وحتّى الآن لا توجد طريقةٌ لتفسير وشرح قراراتِ النُّظمِ الّتي تعتمدُ في عملِها على الذّكاءِ الاصطناعيِّ.
الغموضُ الّذي يُحيطُ بالطّريقةِ الّتي تعملُ بها هذه السَّيَّارةُ من الدَّاخلِ يُمثِّلُ حجرَ عثرةٍ أمامَ مستقبلِ الذَّكاءِ الاصطناعيِّ وتطبيقاته. يُعتبر التَّعلُّم العميقُ أحدَ فروعِ الذَّكاءِ الاصطناعيِّ وهو التّكنولوجيا الأساسيّة الّتي تعتمد عليها هذه السَّيَّارةُ في عملها. لقد تصدَّر التَّعلُّمُ العميقُ بقوةٍ مؤخَّرًا لكثيرَ من المشكلاتِ الّتي ظلَّت لسنواتٍ عديدةٍ عصيّةً على الحلِّ، كالتَّعرُّفِ على الأصواتِ والصُّوَّرِ وترجمةِ اللُّغاتِ. تُعلَّق الآن آمالًا كبيرةً على التَّعلُّمِ العميقِ في تشخيصِ الأمراضِ الخطرةِ، والوصولِ لقراراتٍ بملايينِ الدّولاراتِ في عالمِ الأعمالِ، وغيرها الكثيرُ من التّطبيقاتِ الّتي من الممكن أن تُغيّر معظمَ مجالاتِ العملِ من حولنا.
ما لم نجد طرقًا لجعلِ تقنيّاتٍ مثل التَّعلُّمِ العميقِ أكثرَ وضوحًا لمبدعيها وأكثرَ قابليّةً للمحاسبةِ من قِبل مستخدمي هذه التّكنولوجيا وتطبيقاتها، سيكون من الصَّعبِ التَّنبُّؤ بالأخطاءِ المُحتملةِ، - الأمرُ الّذي لابدَّ من حدوثه- وهو ماجعلَ سيَّارةَ إنفيديا تعملُ بشكلٍ تجريبيٍّ حتّى الآن.
جيلٌ جديدٌ من الآلاتِ لايستطيعُ مطوِّروها فهمَ وتفسيرَ تفاصيلِ عملِها!
تُستخدم النَّماذجُ الرّياضيّةُ mathematical models في المساعدةِ على اتّخاذِ قراراتِ إطلاقِ السّراح المشروطِ للسُّجناءِ، ودراسةِ ملفَّاتِ العُملاءِ الّذينَ يحتاجونَ قروضًا من البنوكِ، وحتّى في اختيارِ العناصرِ المناسبةِ لوظيفةٍ بعينها. إذا استطعنا الوصولَ للنّموذجِ الرّياضيّ وقراءته، فقد يساعدنا هذا الأمرُ على فهمِ الطّريقةِ الّتي يعملُ ويتَّخذُ القراراتِ بها. الكثيرُ من المؤسّساتِ اليومَ لديها اهتمامٌ بالانتقالِ لاستخدامِ الذَّكاءِ الاصطناعيِّ في عمليّاتها، هو ما يضع هذه المؤسّسات أمامَ مشكلةِ غموضِ قراراتِ هذه النُّظمِ الجديدةِ في ظلِّ غيابِ طرقٍ تساعد على فهمِ الطّريقةِ الّتي تعملُ بها هذه النُّظم داخليًّا، وكأنَّنا أمامَ صندوقٍ أسودَ مُبهمٍ.
هناك نقاشٌ يدورُ حولَ ضرورةِ الحصولِ على نُظمِ ذكاءٍ اصطناعيٍّ تستطيعُ أن تُقدِّمَ تفسيرًا لقراراتِها وللخطواتِ الّتي اتّخذتها. في هذا الاتّجاهِ وابتداءً من صيفِ 2018 من المُحتملِ أن يطلب الاتّحادُ الأوروبيُّ من الشّركاتِ أن تقدِّمَ للمستخدمينَ تفسيراتٍ للقراراتِ المُتعلِّقَةِ بهم، والّتي اتّخذتها الأنظمةُ الآليّةُ الّتي تُشغِّلها، سواءً كان إعلانًا ظهر لأحدهم ولا يعرف لماذا ظهرَ له هذا الإعلانُ تحديدًا، أو اقتراحًا بمشاهدةِ فيديو من دونِ فهمِ خلفيّاتِ اقتراحِ هذا الفيديو. قد يكونُ هذا الأمرُ مستحيلًا، فحتّى لو بدت هذه الأنظمةُ بسيطةً من الخارجِ، فالتّطبيقاتُ والخدماتُ أصبحت قادرةً على برمجةِ نفسِها بنفسِها، وبطرقٍ غيرِ قابلةٍ للفَهمِ، وحتّى المهندسين الّذين قاموا بتطويرِ هذه التّطبيقاتِ لا يستطيعون تفسيرَ وشرحَ عملِها بشكلٍ كاملٍ.
في تعاملاتنا اليوميّةِ لا يمكنُ تفسيرُ الكثيرِ من جوانبِ السّلوكِ البشريِّ بشكلٍ كاملٍ ومُفصَّلٍ، ومن الجائزِ أيضًا أن يخضعَ الذَّكاءُ الاصطناعيُّ لنفسِ الأمرِ. لو أنَّ شخصًا قدَّمَ لكَ أسبابًا منطقيَّةً تبُرِّرُ أفعالَه، فمن الممكنِ أن تكونَ غيرَ مكتملةٍ، ونفسُ الأمرِ يمكنُ أن ينطبقَ على الذَّكاءِ الاصطناعيِّ. ويمكنُ اعتبار هذا الأمرِ جُزءًا من طبيعةِ الذّكاءِ البشريِّ بشكلٍ عامٍ، حيثُ يمكنُ تفسيرُ بعضًا منه بمبرّراتٍ منطقيّةٍ، بينما البعضُ الآخرُ يختفي وراءَ ستائرَ من الغموضِ وفي مساحاتٍ يحكمها ما دونَ الوعي أو الغرائز.
لم يحدث في الماضي أن طوّرَ البشرُ آلاتٍ تعملُ بطريقةٍ لا يستطيعُ مطوِّرو هذه الآلاتِ فهمَ وتفسيرَ تفاصيلِ عملِها!
كيف سيكونُ شكلُ التّواصلِ مع هذه الآلاتِ الذّكيّةِ الّتي يحيطُ بعملِها من الدَّاخِلِ كثيرًا من الغموضِ وعدمِ الوضوحِ؟
هل سيكونُ السّبيلُ الوحيدُ في المستقبلِ لاستخدامِ الذَّكاءِ الاصطناعيِّ أن نُقدِّمَ الثِّقةَ العمياءَ لهُ وللطّريقةِ الّتي يعملُ بها؟
دائمًا ما كانت علاقاتُ البشرِ مع بعضِهم البعض غيرَ قابلةٍ للفَهمِ بشكلٍ كاملٍ ودائمٍ، ولكنَّ البشرَ وجدوا طرقًا للتّعاملِ وللثّقةِ في بعضِهم بعضًا، فهل سنحتاجُ أن نسلكَ نفسَ الأمرِ في علاقاتِنا وتعامُلنا مع الآلاتِ، بالرّغمِ من أنَّها تعملُ وتتّخذُ قراراتِها بشكلٍ مُختلفٍ جذريًّا؟
إلى هنا انتهى الجزءُ الأوَّلُ، وسنحاول في الجزءُ الثّاني من المقالِ أن نُقدِّمَ إجاباتٍ عن تلكَ الأسئلةِ. سنعرضُ في الجزءِ الثّاني بعضَ المشروعاتِ الطّموحةِ الّتي تُحاوِلُ أن تضعَ أقدامَها على بدايةِ الطّريقِ للوصولِ لتطبيقاتِ ذكاءٍ اصطناعيٍّ تتحاورُ وتتفاعلُ معنا بوضوحٍ وشفافيّةٍ.
------------------------------------------
المصدر: