الهندسة والآليات > التكنولوجيا
كَشْف الأخبار المُزيَّفة من مصدرها
هدف نظام التعلُّم الآلي إلى تحديد ما إذا كان منفذ المعلومات دقيقًا أم مُتحيِّزًا.
آدم كونر سيمونز CSAIL
4 أكتوبر 2018
كان عالم التحقُّق من الحقائق في حالة من الأزمة في الآونة الأخيرة.
وقد ركَّزت المواقع؛ مثل حقيقة بوليتي وسنوبيز على مطالبات محدّدة تقليديًّا، وهو أمر مثير للإعجاب، ولكنَّه مُملّ في الوقت الذي حُقِّقَ في أثنائه عن طريق إثبات الحقيقة أو كشفها. فهناك فرصة جيدة أن يكون قد سافر بالفعل في جميع أنحاء العالم والعودة مرة أخرى.
وكانت لشركات الإعلام الاجتماعي نتائج متباينة تحدُّ من انتشار الدعاية والمعلومات الخاطئة ففيسبوك يخطُّط لأن يكون لديه20 ألف مشرفًا بشريًّا في نهاية العام، ويضع موارد كبيرة في تطوير خوارزميَّاته الخاصة؛ التي تكشف الأخبار المزوَّرة.
يعتقد باحثون من مختبر علوم الكمبيوتر والذكاء الاصطناعيِّ بمعهد ماساتشوستس للتكنولوجيا، ومعهد قطر لأبحاث الحوسبة (QCRI) أنَّ أفضل نَهْج هو التركيز، وليس التركيز على المطالبات الفردية وحدها، بل على مصادر الأخبار نفسها.
وأظهروا باستخدام هذا المسار نظامًا جديدًا يَستخدم التعلُّم الآلي؛ لتحديد ما إذا كان المصدر دقيقًا أو متحيِّزًا سياسيًّا.
"إذا كان أحد مواقع الويب قد نشر أخبارًا مُزيَّفة من قبل، فهناك احتمال كبير أن يفعلوا ذلك مرَّة أخرى". ويقول الباحث ما بعد الدكتوراه رامي بالي؛ المؤلِّف الرئيس في بحث جديد عن النظام: "عن طريق إلغاء البيانات عن هذه المواقع تلقائيًّا؛ يَكمُن الأمل في أنَّ نظامنا يمكن أن يساعد على معرفة أيٍّ منها يُحتمَل أن يفعل ذلك في المقام الأول".
يقول بالي إنَّ النظام يحتاج إلى قرابة 150 مقالة فحسب؛ لكشفها كشفًا موثوقًا، إذا كان مصدر الأخبار يمكن الوثوق به؛ ممَّا يعني أنَّه يمكن استخدام منهج مثل أسلوبه للمساعدة على القضاء على منافذ أخبارٍ مُزيَّفة جديدة قبل انتشار القصص على نطاق واسع للغاية.
وهذا النظام هو تعاون بين علماء الحاسوب في معهد ماساتشوستس للتكنولوجيا وجامعة قطر القطرية؛ والتي هي جزء من جامعة حمد بن خليفة في قطر.
أخذ الباحثون بيانات من (Media Bias / Fact Check (MBFC وسائل الاعلام التحيُّز/التحقُّق أوّلًا؛ وهو موقع ويب يضمُّ مدقِّقين للحقائق البشرية، يحلِّلون الدقةَ والتحيُّزَ لأكثر من 2000 موقع إخباريّ من MSNBC و Fox News، ومن المجموعات ذات المحتوى المنخفض.
ثم غذّوا تلك البيانات إلى خوارزميةِ تعلُّم الآلة، وبرمجوها لتصنيف مواقع الأخبار بطريقة MBFC نفسها.
وعندما أُعطِيتْ وسيلة إخبارية جديدة؛ كان النظام عندئذ دقيقًا بنسبة 65٪ في اكتشاف ما إذا كان لديه مستوى مرتفع أو منخفض أو متوسّط من الوقائع، ودقَّة تقارب 70٪ في الكشف إذا كانت ذات اتجاه يساريّ، أو مائلة لليمين، أو معتدلة.
قرَّر الفريق أنَّ أكثر الطرائق التي يُمكن الاعتماد عليها في الكشف عن الأخبار المُزيَّفة والتقارير المُتحيِّزة هي النظر إلى السمات اللغوية الشائعة عبر قصص المصدر متضمّنة المشاعر والتعقيد والبنية.
علي سبيل المثال؛ عُثِرَ على منافذ الأخبار المُزيَّفة؛ التي يُرجّح أنَّها تستخدم اللغة التي هي قطعية وذاتية وعاطفية.
وفيما يتعلَّق بالتحيِّز؛ كانت المنافذ ذات الميول اليسارية أكثر ترجيحًا لوجود لغة تتعلَّق بمفهومات الضَّرر والرعاية والإنصاف والمعاملة بالمثل مقارنةً بالصفات الأخرى؛ مثل الولاء والسلطة والقدسية. (تمثّل هذه الصفات نظرية شعبية تقول إنَّ هناك خمسة أسس أخلاقية رئيسة في علم النفس الاجتماعيّ).
يقول المؤلف المشارك بريسلاف ناكوف؛ وهو أحد كبار العلماء في شركة QCRI إنَّ النظام وجد ارتباطات مع صفحة ويكيبيديا لأحد المنافذ أيضًا؛ والتي قُيِّمت للعموم. وهي تُعدُّ أكثر مصداقية. وكذلك الكلمات المستهدفة؛ مثل "المتطرّفة" أو "نظرية المؤامرة"، حتى إنَّه وجد ارتباطات مع بنية النص من عناوين URL المواقع الخاصة بالمصدر؛ تلك التي تحتوي على كثيرٍ من الحروف الخاصة والدلائل المعقَّدة؛ على سبيل المثال؛ كانت مرتبطةً بمصادر أقلَّ موثوقية.
يقول سيبل أدالي؛ أستاذ علوم الكمبيوتر في رينسيلر: "لمّا كان الحصول على الحقيقة المُطلقة من المصادر [من المقالات] هو الأسهل، فإنَّ هذه الطريقة قادرة على توفير تنبؤات مباشرة ودقيقة، فيما يتعلَّق بنوع المحتوى الذي توزِّعه هذه المصادر". معهد البوليتكنيك الذي لم يشارك في المشروع.
وسرعان ما حذَّر ناكوف من أنَّ النظام لا يزال قيد التقدُّم، وأنَّه حتى مع التحسينات في الدقة، فإنَّه سيعمل عملًا أفضل مع المُدقِّقين التقليديين.
يقول ناكوف: "إذا كانت تقارير المنافذ مختلفة عن موضوع مُعيَّن، فإنَّ موقعًا مثل حقيقة بوليتي يمكنه أن ينظر على الفور إلى نتائج الأخبار المُزيَّفة الخاصة بهذه المنافذ؛ لتحديد مدى صلاحية العرض من وجهات نظر مختلفة".
شارك بالي ونيكوف في كتابة هذه الورقة البحثية الجديدة مع جيمس غلاس؛ كبير علماء البحث بمعهد ماساتشوستس للتكنولوجيا؛ إلى جانب طلاب الدراسات العليا ديميتار ألكسندروف، وجورجي كارادزوف من جامعة صوفيا.
وسيقدم فريق العمل في وقت لاحق من هذا الشهر في 2018 مؤتمرًا عن الأساليب التجريبية في معالجة اللغات الطبيعية (EMNLP) في بروكسل عاصمة بلجيكا.
وأنشأ الباحثون مجموعةَ بيانات جديدة مفتوحة المصدر تضمُّ أكثر من 1000 مصدر إخباريٍّ أيضًا، وشُرحَت بحقائق الحقيقة والتحيُّز، وهي أكبر قاعدة بيانات من نوعها في العالم.
وسيكتشف الفريق في الخطوات الآتية ما إذا كان النظام المُدرَّب بالإنجليزية يمكن تكييفه مع اللغات الأخرى، إضافةً إلى تجاوز التحيُّز التقليديّ/اليساريّ؛ لاستكشاف التحيُّزات الخاصة بالمنطقة؛ (مثل تقسيم العالم الإسلاميّ بين المُتديِّنين والعلمانيين)..
يقول أندرياس فلاشوس؛ المحاضر الأقدم في جامعة كامبريدج؛ والذي لم يشارك في المشروع: ''إنَّ اتجاه البحوث هذا يمكن أن يسلِّط الضوء على ما تبدو عليه المواقع غير الجديرة بالثقة، ونوع المحتوى الذي يميلون إلى مشاركته؛ الذي سيكون مفيدًا للغاية لمصممي الويب وعامة الناس''.
يقول ناكوف إنَّ شركة QCRI لديها خطط لطرح تطبيق يساعد المستخدمين على الخروج من أوهامهم السياسية، والاستجابة لمقالات إخبارية مُعيَّنة عن طريق تزويد المُستخدمين بمجموعة من المقالات؛ التي تُغطِّي الطيف السياسيّ.
يقول ناكوف: "إنَّ التفكير في طرائق جديدة لعرض الأخبار على الناس مثيرٌ للاهتمام".
"يمكن لأدوات مثل هذه أن تساعد الأشخاص على التفكير أكثر في المشكلات، واستكشاف وجهات نظر أخرى قد لا يكونون قد درسوها بطريقة أخرى".
المصادر :
1- هنا