الذكاء الصنعي عنصريٌّ ومتحيزٌ جنسيّاً!
التعليم واللغات >>>> اللغويات
في جامعة برينستون أجرى ثلاثة علماء تجربة باستخدام خوارزمية (GloVe algorithm) على ما يقارب 840 مليار كلمة مستخدمة على شبكة الإنترنت. وكانت النتيجة مفاجئة،فوجد العلماء أن تطبيقات الذكاء الصناعي تستنسخ الصور النمطية الموجودة في البيانات التي تتلقاها.
كانت حالات التحيز والتعصب تتعلق بالجنس والعرق. ووفقاً لما كتبه العلماء في بحثهم الذي نشر في (Science) فإن الآلات المتعلمة "تتشرب الانحيازات النمطية" عندما تتعلم لغةً ما.
يعود الفضل الأساسي في التقدم المتسارع في هذا المجال إلى أن العلماء قد أصبحوا على دراية واسعة في “تعدين" أو استخراج الذكاء البشري وزرعه في ذكاءات صناعيّة، وذلك وفقاً لجوانا برايسون إحدى عالمات الحاسوب في جامعة برينستون وباث، فتضيف أن الذكاء الصناعي قد تقدم على البشر في بعض المجالات كقراءة الشفاه مثلاً.
استخدمت براسيون وزملاؤها اختباراً يدعى (IAT: Implicit Association Test) لتحديد أماكن تواجد الانحياز، إذ تم تطوير هذا الاختبار في التسعينيات واستخدم في دراسات نفسية لتحديد السمات البشرية.
يطلب من المتطوعين في هذا الاختبار ربط مفاهيم الكلمات التي تظهر أمامهم على شاشة كومبيوتر ويتم قياس الوقت الذي يتطلبه أداء هذه المهمة. وفقاً للبحث فإن كلمة "وردة" مثلاً غالباً ما يتم ربطها مع الأفكار الجميلة كالحب، بينما يتم ربط كلمة "عثة" مع أفكار أقل جمالاً وذات دلالات سلبية.
عدّل علماء جامعة برينستون IAT ليتماشى مع خوارزمية (GloVe) مستخدمين نصاً من الانترنت لتجربة عملية ربط الكلمات بالمفاهيم، ولاحظوا أنه في كل مرة أجري فيها الاختبار، كان نظام تعليم الآلة يستنسخ الانحياز اللغوي من اللغة البشرية.
ووجد العلماء بعض الأسماء المرتبطة مع كون الشخص أمريكياً أوروبياً والتي ارتبطت بسهولة أكبر مع تعابير محببة، بينما اختلفت تلك المتعلقة بكون الشخص أمريكياً افريقياً.
في مثالٍ آخر، ارتبطت أسماء الإناث مع الأسرة أكثر من ارتباطها لكلمات متعلقة بالعمل والمهنة إذا ما قورنت بأسماء الذكور. في واقع الأمر، لقد قامت الآلات المتعلمة باستنساخ النتائج التي قدمها البشر عندما خضعوا للاختبار ذاته.
لم تشكل نتائج البحث مفاجأةً كبيرة حيث أن أنظمة تعلم الآلة قادرة على تفسير البيانات التي تم تدريبها عليها فقط، ففي 2016 أشارت ProPublica إلى برنامج استخدم في الولايات المتحدة الأميريكية لتوقع الجرائم قبل وقوعها في المستقبل ولوحظ تعصّبه ضد الأميريكيين الإفريقيين وذلك لكون البيانات الموجودة ضمنه لم تكن دقيقة.
تقول براسيون إن الشيء المهم حول الآلات هو عدم تدريب أنظمة ذكاء صناعي اعتماداً على الثقافات الموجودة حالياً او ذات العمر القصير ومن ثم التوقف، لا بدّ من تطوير وتحديث بيانات الذكاء الصناعي بشكل مستمر جنباً إلى جنب مع تطور الثقافة.
تبين نتائج هذه الدراسة إنه إذا ما تم بناء نظام ذكاء صناعي قادر على تعلم خصائص اللغة البشرية بهدف فهمها واستخدامها لاحقاً، لا بدّ لهذا النظام من اكتساب أفكار مرتبطة مسبقاً ببعض المفاهيم التاريخية والثقافية والتي يمكن أن يكون بعضها مستهجناً.
المصدر:
هنا