المعلوماتية > الذكاء الصنعي
ما هو الفرق بين الذكاء الصنعي وتعلم الآلة والتعلم العميق؟
عندما قام AlphaGo برنامج شركة DeepMind التابعة لجوجل بهزيمة المحترف Lee Se-dol من كوريا الجنوبية في لعبة Go في وقتٍ سابق من هذا العام، استُخدمت مصطلحات: الذكاء الصنعي، وتعلُّم الآلة، والتعلم العميق، في وسائل الإعلام لوصف كيف فازت شركة DeepMind، ويُعتَبر فعلاً كلٌّ منها جزءاً من السبب في فوز AlphaGo على Lee Se-dol. ولكنها لا تشير لنفس المفهوم.
أسهلُ طريقةٍ لفهم العلاقة بين المصطلحات الثلاثة السابقة هي أن نتخيَّلَها دوائرَ متحدةَ المركز، الذكاءُ الصنعي هو الدائرة الأكبر فالفكرة تأتي في المرتبة الأولى، ثم تعلُّم الآلة الذي ازدهر في وقتٍ لاحق، والتعلُّم العميق أخيراً وهو ما يدفع الذكاء الصنعي اليوم نحو الانفجار.
كان الذكاءُ الصنعي ضرباً من الخيال، إلى أن احتشد مجموعةٌ من علماء الكمبيوتر حول المصطلح في مؤتمرات دارتموث عام 1956 ووُلِد مجال الذكاء الصنعي، وبدأ يتصاعد في مختبرات الأبحاث.
في العقود التي تلت، بشَّر البعض بالذكاء الصنعي كمفتاحٍ لمستقبلٍ ألمعَ لحضارتنا، وبالوقت نفسه اعتبر البعضُ الآخرُ أنه يجب إلقاء هذه التكنولوجيا في القمامة باعتبارها فكرةً رعناء، وحتى عام 2012، كان الفريقان متعادلَين.
على مدى السنوات القليلة الماضية انفجر الذّكاء الصنعي، وخاصةً منذ عام 2015. والسبب الأكبر في هذا له علاقةٌ بتوافر وحدات معالجة الرسومات بشكلٍ واسع، والتي جعلت المعالجةَ المتوازيةَ أسرعَ وأرخصَ وأكثرَ قوةً من أي وقتٍ مضى. كما أنَّ تزامنَ التخزين غيرَ المحدودِ تقريباً مع التدفقِ الهائل للبيانات من كل حدبٍ وصوب، وبكل أنواعها (الصور والنصوص، والمعاملات، والخرائط ... إلخ...)، يلعب أيضاً دوراً كبيراً بتقدم الذكاء الصنعي.
بالعودة لذلك الصيف من عام 1956، كان حلم رواد الذكاء الصنعي بناءَ آلاتٍ معقدةٍ تمتلكُ نفسَ خصائصِ الذكاء البشري، تلك الآلاتُ الرائعة التي لديها كلُّ حواسنا (وربما أكثر)، كلُّ ما نملك من العقل ليُمكن لها التفكيرُ مثلَنا تماماً، يسمى هذا المفهوم "الذكاء الصنعي العام"، رأينا هذه الآلات في الأفلام كصديق (كما في فيلم C-3PO) أو كعدو (كما في فيلم The Terminator). ولم تغبْ عن أفلام وروايات الخيال العلمي، أما ما يمكن القيام به فعلياً يندرج في مفهوم "الذكاء الصنعي الضيق"، ويمكن تعريفه على أنه التكنولوجيا القادرةُ على أداء مهام محددة بنفس كفاءة البشر أو أفضل، كمثالٍ على الذكاء الصنعي الضيق في الممارسة العملية: تصنيف الصور (كما في Pinterest) أو التعرف على الوجوه (كما في Facebook). تحملُ هذه التقنيات بعضَ جوانب الذكاء البشري؛ ولكن كيف؟ من أين يأتي هذا الذكاء؟ هذا يقودنا للدائرة التالية: تعلم الآلة.
تعلم الآلة في أبسط تعريفٍ له هو استخدام خوارزمياتٍ لتحليل البيانات والتعلم منها، ومن ثم اتخاذ قرارٍ معيَّنٍ أو التنبؤ عن شيءٍ ما. وذلك بدلاً من الترميز اليدوي الروتيني للبرنامج بمجموعةٍ محددةٍ من التعليماتِ لإنجاز مهمةٍ معينة، "تتدرب" الآلة باستخدام كمياتٍ كبيرةٍ من البيانات والخوارزميات التي تُعطيها القدرةَ على تعلُّمِ كيفيةِ تنفيذ هذه المهمة. شمل تعلُّم الآلةِ الكثيرَ من الخوارزميات المنهجية على مدى السنوات، ومنها تعلُّم شجرة القرار (decision tree)، برمجة المنطق الاستقرائي (inductive logic programming)، التصنيف (clustering)، التعلم المعزز (reinforcement learning)، والشبكات البايزية (Bayesian networks) وغيرها. ولكن لا شيءَ حققَ الهدف النهائي المتمثلّ في الذكاء الصنعي العام، وحتى الذكاء الصنعي الضيق بقي في الغالب بعيداً عن المنال باستخدام منهجياتِ تعلم الآلة الأولى.
من أفضل مجالات تطبيق تعلم الآلة هي الرؤية الحاسوبية، وبقيت كذلك لسنواتٍ عديدة، على الرغم من أنها ما تزال تتطلب قدراً كبيراً من الترميز اليدوي لإنجاز مهامها. ولفهم كيف تتم العملية سنأخذ مثالاً عن كيفية كتابة برنامجٍ للتعرف على إشارة التوقف في صورة.
تُكتب شيفرة المُصنِّفات التالية يدوياً:
1. مصنِّف الكشف عن الحافة، ليتمكن البرنامج من تحديد أين يبدأ الكائن في الصورة وأين ينتهي.
2. مصنِّف الكشف عن الشكل لتحديد ما إذا كان للكائن ثمانيةُ أضلاع.
3. مصنِّف يتعرف على الحروف "S-T-O-P.".
ثم من كل تلك المصنِّفات المشفرة يدوياً يتم تطوير خوارزمياتٍ لفهم الصورة وتحديد ما إذا كانت إشارةَ توقف.
الناتج برنامجٌ جيد، ولكن ليس ممتازاً؛ ولا سيما في يومٍ ضبابي عندما تكون الإشارة غيرَ مرئيةٍ تماماً، أو عندما تحجب شجرةٌ جزءاً منها. لهذا السبب فإن الرؤيةَ الحاسوبية والكشفَ عن الصورة لم تقترب من منافسة البشر حتى وقتٍ قريب جداً، فقد كانت هشةً للغاية وعرضةً للخطأ أيضاً. ولكنَّ الوقت وخوارزميات التعلم الصحيحة صنعت الفرق.
الشبكات العصبونية الصنعية هي منهجيةٌ أخرى من منهجيات تعلم الآلة الأولى. وهي مستوحاةٌ من فهمنا لبيولوجيا أدمغتنا وذلك الترابط الكبير بين الخلايا العصبية. ولكن على عكس الدماغ البيولوجي إذ يُمكن للخلايا العصبية الاتصال مع كل الخلايا العصبية الأخرى على مسافة جسدية معينة، فالشبكات العصبونية الصنعية لها طبقاتٌ منفصلة ووصلات واتجاهات لنشر البيانات.
كلُّ عصبونٍ بالشبكة يُعيّنُ وزناً لمُدخَلاتِه ويتم تحديدُ الناتج النهائي بجمع تلك الأوزان.
لنفكِّر بمثالِ إشارةِ التوقف، تُقسَم واصفاتُ صورةِ إشارة التوقف (مثل شكلِها المثمّن ولونِها الأحمر وحروفها المميزة، وحجمها... إلخ...) وتُفحص هذه الواصفات من قبل الخلايا العصبية. مهمةُ الشبكة العصبونية هي أن تقرر ما إذا كانت هذه الصورة هي لإشارة التوقف أم لا. وأيضاً تُعطي شعاع احتمالياتٍ بالاعتماد على الأوزان.
في مثالنا ربما يكون النظام واثقاً بنسبة 86٪ أنَّ الصورة هي علامة توقف، وواثقاً بنسبة 7٪ أنها إشارةُ الحد الأقصى للسرعة، وبنسبة 5٪ أنها طائرةٌ ورقيةٌ عالقةٌ في شجرة!
حتى هذا المثال تَقدَّم على نفسه، لأنه حتى وقتٍ قريبٍ كانت الشبكات العصبونية منبوذةً من مجتمع أبحاث الذكاء الصنعي. فعلى الرغم من وجودها منذ الأيام الأولى للذكاء الصنعي، إلا أنها لم تُنتج سوى القليلِ جداً في هذا المجال. المشكلة كانت أنّه حتى الشبكات العصبونية البسيطة مُكْلِفةٌ جداً حسابياً، وبالتالي لم تكن طريقةً عمليةً أبداً. ومع ذلك، ظلت مجموعةُ أبحاثٍ صغيرةٍ يرأسُها جيفري هينتون في جامعة تورونتو تعمل عليها، وقامت المجموعة بمزامنة الخوارزميات على أجهزة الكمبيوتر العملاقة لتشغيل وإثبات المفهوم، لكنّ ذلك لم يتحقق بالفعالية الموعودة حتى انتشرت وحدات معالجة الرسومات.
وإذا عدنا مرةً أُخرى إلى مثال إشارة التوقف، كلما تم تدريبُ الشبكة أكثر ستقل إجاباتها الخاطئة. إذاً كلُّ ما تحتاجه هو التدريب. إنها تحتاج لرؤية مئاتِ الآلاف، بل الملايين من الصور، حتى يتمَّ ضبطُ الأوزان النسبية لمُدخَلات الخلايا العصبونية بمنتهى الدقة حتى نحصل على إجابةٍ صحيحةٍ من الناحية العملية في كلِّ مرةٍ ومهما كانت الظروف (بالضباب أو عدمه، الشمس أو المطر... إلخ...).
في هذه النقطة يمكننا القول أنَّ الشبكة العصبونية قد علمت نفسها كيف تبدو إشارة التوقف، أو كيف تبدو القطة، وهو ما فعله أندرو نغ (Andrew Ng) عام 2012 في جوجل.
كانت القفزة النوعية التي قام بها أندرو نغ هيَ بجعلِهِ الشبكاتِ العصبونيةَ ضخمةً، وزيادةِ الطبقاتِ والخلايا العصبونية، ومن ثم استخدامِ كمياتٍ هائلةٍ من البيانات (استخدم صوراً من 10 ملايين مقطعِ فيديو من اليوتيوب) ليتدرب عليها النظام، بكلامٍ آخر أضاف أندرو نغ العمقَ للتعلم، الذي يصف جميع الطبقات في الشبكات العصبونية.
كذلك برنامج جوجل AlphaGo تعلَّم لعبة Go، وتدرَّب عليها عن طريق اللعب ضد نفسه مراراً وتكراراً.
اليوم، أصبح التعرُّف على الصور بواسطة آلات تُدرَّب عن طريق التعلم العميق، أفضلَ من البشر في بعضِ الحالات، وتتراوح هذه الصور من القطط إلى تحديد مؤشراتٍ لمرض السرطان في الدم، والأورام في التصوير بالرنين المغناطيسي. وقد مكَّن التعلُّم العميق العديدَ من التطبيقات العمليّة لتعلم الآلة وبالتالي الميدان العام للذكاء الصنعي، مثل السيارات دون سائق، وزيادة مستوى الرعاية الصحية الوقائية، وحتى جعل توصيات الأفلام أفضل، كل ذلك اليوم تحقق أو سيتحقق في الأفق؛ بفضل التعلم العميق، فالذكاء الصنعي لديه مستقبل مشرق.
المصادر: