الآلة الأخلاقية
علم النفس >>>> المنوعات وعلم النفس الحديث
يعتمدُ مستقبلنا على دور العديد من الاختراعات وتدخُّلها في تشكيل حياة البشر، والذكاءُ الاصطناعي أهمُّ هذه المجالات، وأصبح للأفراد -بفضل دور التكنولوجيا الفعَّال- حياةٌ أفضلُ وأسهل. ولكن يناقشُ أحدُ الأسئلة الأكثر جدلاً في وقتنا الحالي: ماذا إن كان دور التكنولوجيا في المستقبل ذا أثرٍ سلبيٍّ في حياة الإنسان؟
انبثقتْ من هذا السؤال أبحاثٌ عديدةٌ تدرس إمكانيّة استخدام الذكاء الاصطناعي بطريقةٍ أخلاقية وآمنة؛ فعلى مستوى تصميم الروبوتات حُدِّدت ثلاثة قوانين تقوم على أساسها هندسةُ الذكاء الاصطناعي؛ وهي:
١- ليس للروبوت أن يؤذي أيَّ بشري في فترة تجاوبه أو عدم تجاوبه.
٢- على الروبوت الانصياع لأوامر البشر ما لم تتعارض هذه الأوامر مع القانون الأول.
٣- ينبغي للروبوت حماية نفسه ما دامت هذه الحماية لا تتعارض مع القانونَين الأول والثاني.
لكن يمكن لهذه القيم الصارمة -المغروسة في تصميم الروبوت- أن تُسبِّب مأزقاً أخلاقياً في حالة الآلة الذاتية التحكم.
لم يسمح البشر على مرِّ تاريخهم لآلةٍ أن تُقرِّر بمفردها من يجب أن يعيش ومن يجب أن يموت -في جزءٍ من الثانية- ودون رقابة. لكنَّ هذا الأمر عرضةٌ للتغيّر في أيِّ وقتٍ من المستقبل القريب، وسوف يحدث في أكثر جوانب حياتنا اعتيادية؛ أي في التنقُّل اليومي. فكيف للسيارة ذات التحكم الذاتي أن تُقرِّر من ينبغي إنقاذه عندما يكون الحادث محتَّماً؟ هل تنقذ راكبَها؟ أم أحدَ المشاة؟ ولكن؛ كيف يكون الحال إن كان من بين الراكبين طفلٌ أو امرأة؟
أعلنت شركة السيارات ميرسيدس بينز Mercedes Benz قبل عامين أنَّ سياراتها ستضحِّي بالمشاة كلَّ مرة تتعرَّض فيها السيارةُ لحادثٍ محتَّم، وأنها مبرمجةٌ على إنقاذ راكبها بغضِّ النظر عن مصير المشاة.
ولكن بعد سنوات أصدرت ألمانيا قوانين إرشاديةً قانونيةً مختلفةً تنصُّ على تعامل الآلة بمساواةٍ مع الجميع، وضرورة إلحاق أقلّ ضررٍ ممكن.
مع التطور السريع للذكاء الاصطناعي؛ ظهرت اهتمامات بإمكانية اتخاذ الآلات قراراتٍ أخلاقية. ولكن إن كان علينا برمجة الآلة وفق قيمٍ أخلاقيةٍ معينةٍ؛ فإنه يتعيَّن علينا تحديد هذه القيم؛ ولهذا أجرى الباحثون من Massachusetts Institute of Technology تجربةً لحلِّ هذه المشكلة، وتُدعى بتجربة "الآلة الأخلاقية"؛ وهي منصَّةُ تجريبيةٌ عبر الإنترنت صُمِّمت للبحث في المعضلات الأخلاقية التي تُواجه الآلة ذاتَ التحكم الذاتي. فصمَّم الباحثون استبياناً ممتعاً لملايين الناس في أكثر من ٢٠٠ دولةٍ مختلفة، وفي كل محاكاةٍ عليك الاِختيار بين إنقاذ المشاة أو الركَّاب. ولكلِّ محاكاةٍ متغيراتٌ مختلفة؛ فماذا لو كان الأشخاص في السيارة مجرمين؟ وماذا لو كانوا قططاً؟!
نتائج التجربة:
وجد الباحثون -في ضوء هذه التجربة- عدمَ وجود إجابةٍ واضحةٍ لهذه المعضلة الأخلاقية، ولكن لُوحظ تفضيلٌ عالميٌّ لإنقاذ الإنسان بدلاً من الحيوان عندما تُحتَّم التضحية بأحدهما، وتفضيلُ إنقاذ مجموعة الأشخاص الأكثر عدداً على الأقلِّ عدداً، والميلُ إلى إنقاذ الأطفال بدلاً من كبار السن.
من الممكن ألا تكون هذه النتائج مفاجئة، ولكن؛ ما يُثير الاهتمامَ اختلاف التفضيل باختلاف الثقافة.
فقد قُسِّمت الدولُ التي حصلنا منها على إجاباتٍ إلى ثلاث فئات:
١- الدول الغربية التي تضمُّ أمريكا الشمالية وأوروبا.
٢- الدول الشرقية التي تضمُّ البلدان الإسلامية واليابان وتايوان وإندونيسيا وباكستان.
٣- الدول الجنوبية التي تضمُّ بلدان أمريكا اللاتينية.
وجدت الدراسةُ تفضيلاً مشتركاً لأخلاقياتٍ معينةٍ ضمن الفئة الواحدة، واختلافاتٍ بين هذه الفئات؛ فقد لُوحظ أن:
- تفضيلَ الأطفال على كبار السن أقلُّ ظهوراً في الدول الشرقية، وأكثرُ ظهوراً في الدول الجنوبية.
- لدى الدول الجنوبية ميلاً أقلَّ لتفضيلِ الإنسان على الحيوان مقارنةً بباقي الدول، وميلاً أكبر لإنقاذ النساء.
- تفضيلَ إنقاذ الأشخاص ذوي المكانةِ الأعلى اجتماعياً أكثرُ ظهوراً في الدول الشرقية.
كيف فسَّر الباحثون هذه الاختلافات؟
١- افترض الباحثون أن هذه الاختلافات تُفسَّر بكون الحضارة أو الثقافة فردانية (تقوم على تفضيل الاحتياجات الفردية على احتياجات المجموعة) أو جماعية (تقوم على تفضيل احتياجات المجموعة وأهدافها على الاحتياجات الفردية).
أظهر المشاركون من الثقافات الفردانية ميلاً أكبر إلى إنقاذ المجموعة ذات العدد الأكبر من الأشخاص، في حين أظهر المشاركون من الثقافات الجماعية رغبةً أقلَّ في إنقاذ الأفراد الأصغر سناً.
٢- فضَّل المشاركون -من دولٍ أكثر ازدهاراً وتطبيقاً للقوانين- إنقاذَ المشاة الذين يعبرون الشارع قانونياً، أما المشاركون الذين ينحدرون من بلدانٍ أفقر وأقل ازدهاراً فقد بدوا أكثر تعاطفاً مع المشاة المخالفين الذين يَعبُرون الشارع؛ وذلك لقلَّةِ التزامهم بالقوانين وقلَّة العقوباتٍ المفروضة على مخترقي القانون.
٣- أظهرت البلدان ذات الفجوة الصحية الأصغر بين الجنسين ميلاً أكبر لإنقاذ النساء بدلاً من الرجال، وهو ما لوحظ في البلدان الجنوبية.
وتقترح هذه الأنماط من التشابهات والاختلافات أن يدرك القائمون على الأنظمة والقوانين التفضيلات الأخلاقية في كلِّ منطقةٍ أو فئةٍ ثقافية كي تُنظَّم ضوابطُ الذكاء الاصطناعي وقوانينه اعتماداً عليها.
على الرغم من أن تزويد الآلة الذاتية التحكم بالقيم الأخلاقية الشرطية يُعدُّ وسيلةً فعالة جداً؛ فإن الأمر لا يخلو من المعضلات الأخرى. فقد ظهرت معضلةٌ أخرى ترتبط بالسيارات ذات التحكم الذاتي؛ إذ يجب تطويرُ قدراتها الأخلاقية وصقلها لتتمكن السيارة من اتخاذ القرار بتجاوز حدود السرعة في بعض الحالات، كما في حالة المرأة الماخض أو الراكب الجريح؛ فحياةُ كليهما تعتمد على سرعة السيارة في الوصول إلى المستشفى. وتُعدُّ عمليةُ اتخاذ قرارٍ أخلاقي أكثر تعقيداً عندما تكون الرأفة والعطف واجبَين؛ فلن يستطيع الروبوت الذي يرعى شخصاً مسناً اتخاذ القرار عندما يرفض المسنُّ تناول دوائه على سبيل المثال. فعلى الروبوت في هذه الحالة أن يُقرِّر السماحَ للمسنِّ بعدم تناول دوائه أو إرغامه عليه، وهو ما يمكن أن يُسبِّب أذىً أكبر.
للتغلب على هذه المشكلات؛ يجب أن يُعطى الروبوتُ مرونةً أكبر في التفكير المنطقي. عندها قد يستطيع إحصاء آثار كلِّ فعلٍ من أجل معرفة أيٍّ منها أقلّ إحداثاً للضرر، علاوةً على تطوير خاصية التعلم من التجارب لدى الروبوتات بدلاً من برمجتها على حالاتٍ مُعرّفةٍ مسبقاً؛ ما يساعد الروبوت على تطوير سلوكٍ أخلاقيٍّ اعتماداً على البيئة وتفاعله معها.
في ظلِّ هذا التطور السريع الذي نشهده؛ لم يعُد لدينا شكوكٌ في قدرة البشر على فعل ما ظننَّاه مستحيلاً بفضل العلم. والذكاءُ الاصطناعي يكاد يجري ليُسابق الإنسان بالقيم الأخلاقية والمعرفية والذكاء. فهل سيصبح الروبوت أفضلَ من الإنسان؟ وهل ستكون السيارات الذاتية التحكم مستقبلاً أفضل من الإنسان (دون إغفال عدم قدرتنا على الجزم بأن جميع سائقي السيارات لديهم ما يكفي من القيم الأخلاقية التي سنزوِّدها بالسيارة الذاتية التحكم)؟ ربما!
المصادر:
1- هنا
2- هنا
3- هنا