الهندسة والآليات > التكنولوجيا
كيف يمكن تزويد الذكاء الاصطناعي بحسٍّ عام وسرعة بديهة؟ تمييز الأنماط (٢)
إذًا؛ ليس الجميع على الدرجة نفسها من الحماس عندما يرتبط الأمر بخوارزميات التعلُّم العميق؛ فإذا ما أردنا الحديث عن الرافضين لهذا الاتجاه، لا بُدَّ من أن نذكر البروفيسور جيري ماركوس Gary Marcus أستاذ علم النفس والأعصاب في جامعة نيويورك الأمريكية.
فقد أبدى البروفيسور ماركوس اعتقادَه بخطأ هذا الاتجاه منذ دخوله هذا المجال في أواخر الثمانينيات، ولم تختلف التقنيات الكامنة خلف خوارزميات التعلم العميق كثيرًا حتى يومنا هذا.
لنقل إنك تريد لآلة معينة أن تُعلِّم نفسَها كيفية تمييز زهرة البابونج. بدايةً ستُبرمج الشبكة العصبونية وتوصل هذه العصبونات عن طريق طبقات Layers، وكلما زاد عدد الطبقات زادَ عمق التعلُّم (ومن هنا جاء مصطلح التعلُّم العميق). بعد ذلك ستعرض مجموعة من صور زهر البابونج للطبقة الأولى من العصبونات؛ إذ تتفاعل تلك العصبونات Fire أو لا تتفاعل مع تلك الصور بناءً على مدى تشابهها مع الصور السابقة التي حُدِّدت على أنها صور لأزهار بابونج. ومن ثم تنتقل إشارة التفاعل في حال حدوثها من الطبقة الأولى إلى الطبقة التي تليها؛ إذ تُعاود تلك الأخيرة العمليةَ نفسها، وهكذا حتى الوصول إلى الطبقة الأخيرة. في النهاية يتشكَّل قرارٌ واحدٌ فيما إذا كانت الصورة المعروضة هي لزهرة بابونج أم لا، ويُساهم في صنع هذا القرار كلُّ طبقات الشبكة العصبونية.
ولكن في البداية وقبل تحديد أيٍّ من الصور على أنها لزهر بابونج أم لا؛ تختار الشبكة العصبونية عشوائيًّا تمامًا، ويكمن السر وراء أي تقدم في بناء حلقة تغذية راجعة (feedback loop) مفيدة. في كل مرة تخطي الخوارزمية صورة لزهرة بابونج، وتقرر أنها لا تمثل زهرة بابونج تضمن حلقة التغذية الراجعة تلك إضعاف الروابط ضمن الشبكة التي أدت إلى هذا القرار الخاطئ.
والعكس بالعكس؛ فإذا ما ميّزت الخوارزمية الصورة على نحو صحيح تُقوى الروابط التي أدت إلى هذا القرار. ومع وجود كمية كافية من الصور، إضافةً إلى الوقت اللازم للتدرب عليهم جميعًا، تتحسن دقة الخوارزمية في تمييز أزهار البابونج.
لم تتغير الفكرة كثيرًا في السنوات الماضية، والتي تدور عن بدء بشبكة عصبونية دون أي معلومات بدائية، ومن ثم تكرار تدريبها مرارًا حتى تصل في النهاية إلى دقة مقبولة. وكان هذا الأسلوب يُظهر نجاحًا في كل مكان يُطبقه فيه تقريبًا.
لم يكن الأمر مقنعًا للبروفيسور ماركوس؛ إذ يعتقد أن المشكلة تكمن في الحالة البدائية للشبكة عندما لا تمتلك أي معلومات مسبقة. ويقول إن الاعتقاد بأن البشر يبنون ذكاءهم بالكامل بناءً على ملاحظة العالم من حولهم هو اعتقادٌ خاطئ. وهو في هذا يضم صوته إلى صوت (نعوم تشومسكي-Noam Chomsky) الذي يشكُّ بأن البشر يولدون مجَهّزين بأدوات تساعدهم على التعلّم واحتراف اللغة، إضافةً إلى تفسير العالم الفيزيائي حولهم.
يكمل ماركوس بقوله: «إن الشبكات العصبونية لا تعمل بصورة مشابهة للدماغ البشري. إذ يحتاجون إلى مقدار ضخم من البيانات، وتحتاج الشبكة العصبونية إلى عشرات الآلاف (وربما ملايين) الأمثلة لكي تتعلم منها، وحينما يطرأ تغير- مهما كان بسيطًا- على موضوع الدراسة وُجب عليها البدء من جديد وكأنه موضوع مختلف تمامًا؛ فشبكة عصبونية دُربت لتمييز صوت طائر الكناري - مثلًا - لن تكون ذات أي فائدةٍ في تمييز أصوات طيور أخرى أو قادرة على تمييز كلام البشر».
من ناحية أخرى، لا يحتاج البشر إلى كميات ضخمة من البيانات للتعلم؛ إذ لا نحتاج إلى رؤية ملايين السيارات قبل البدء بتمييزها. والأفضل من ذلك هي قدرتنا على التعميم؛ فعندما يرى الطفل شاحنة أوَّل مرة يفهم أنها نوع من أنواع السيارات. نحن لا نميز الأنماط فحسب؛ بل ندرك المنطق القائم وراءها، ومن ثم نستطيع استخدامه في مواقف طارئة مشابهة.
يعود البروفيسور ماركوس لتوضيح نقطته فيقول: «شبكات التعلم العميق لا تعلم كيفية استخدام المعرفة المجرّدة. ومن دون نهجٍ جديد؛ فإن التعلّم العميق قد لا يتجاوز حدوده الحاليّة أبدًا».
فهل يكون البحث عن طريقة لتزويد الذكاء الاصطناعي بحسٍ عام وبديهة أحدَ هذه الحلول؟ وهل هي ممكنة أصلًا؟
تابعونا في مقالنا المقبل..
المصادر :
1- هنا