رئيس جامعة الذكاء الاصطناعي في أبوظبي يفنّد خرافة تهديد الذكاء الاصطناعي للبشرية

Wednesday, July 28, 2021

تم نشر المقال الأصلي على موقع “وايرد ميدل إيست” (Wired Middle East) في 25 يوليو 2021

البروفيسور إريك زينغ يحذر من تضخم نماذج الذكاء الاصطناعي بسرعة. ويعمل على نظرية موحدة لفهم آليات عمله بدقة.

تختلف مخاوف البروفيسور إريك زينغ المرتبطة بالذكاء الاصطناعي اختلافاً كلياً عن المخاوف الشائعة بين الناس، فهي لا ترتبط بكون هذه التقنيات تهديداً وجودياً يواجه البشر كما عبّر إيلون ماسك مراراً وتكراراً. كما أن البروفيسور لا يؤمن إطلاقاً أن السيارات ذاتية القيادة ستنقض على المشاة لإزهاق حياتهم، كما يُخيل للبعض، فتفوق الذكاء الاصطناعي على البشر أمر ممكن، لكن في حالات معينة مثل تجاوزه ذكاء طلاب الصف الثاني عشر في مسائل الفيزياء. وبالنسبة لجامعة محمد بن زايد للذكاء الاصطناعي التي يترأسها البروفيسور إريك زينغ، لا وجود لروبوتات شريرة تهددنا إلا في الخيال.

على الرغم من ذلك، يتمحور قلق البروفيسور زينغ حول السعي المتسارع لتطوير قدرات الذكاء الاصطناعي دون اكتساب فهم شامل لما يمكنها القيام به.

ففي الوقت الراهن، تخوض الشركات الضخمة والناشئة سباقاً محموماً لتأسيس نماذج الذكاء الاصطناعي مفترضة أن تعزيز قدرات هذه النماذج يقود إلى نتائج أفضل. وتجدر الإشارة هنا إلى نماذج لغات الذكاء الاصطناعي مثل نموذج  GPT-3الذي ابتكرته شركة “أوبن ايه آي” OpenAI ، والشهير بقدرته على إنشاء نصوص واضحة ومميزة، والتجربة الخاطئة التي قام فيها النموذج بدعوة أحد المشاركين إلى الانتحار. ويحتوي نموذج GPT-3 على 175 مليار من المؤشرات والمعايير، والتي تشكل المكونات الأساسية للشبكات العصبية التي تعكس ما “تتعلمه” نماذج الذكاء الاصطناعي من عينات البيانات، وتمثل في هذه الحالة مجموعة من النصوص التي كتبها البشر. وقطعت جوجل شوطاً أطول من شركة “أوبن أيه آي”، بعد إعلانها عن نجاح الباحثين بتدريب نموذج لغوي يحتوي على نحو 1.6 تريليون معيار في شهر يناير.

وبينما يمثل الوصول لهذه النماذج إنجازاً كبيراً للإمكانات الحاسوبية، يرى البروفيسور زينغ الذي يشغل منصب رئيس جامعة محمد بن زايد للذكاء الاصطناعي، أن هذه التطورات أشبه بجرس الإنذار، حيث قال: “إن درايتنا بالعلوم الفيزيائية لا تعني شروعنا بتطوير قنبلة ذرية قادرة على تدمير الأرض. لكن الأمر مختلف في مجال الذكاء الاصطناعي، إذ نمضي قدماً في تطوير أشياء لا نعرف ماهيتها في العديد من الحالات، وهو أمر خطير للغاية”.

ويرى البروفيسور زينغ أن قدرات القنابل النووية واضحة، ونعرف جمعياً حجم القوة الكامنة فيها. إلا أننا في مجال الذكاء الاصطناعي لا ندرك ما نحن مقبلون عليه، لا سيما مع شروع الباحثين بتطوير نماذج أكبر وأقوى، دون النظر لأي جانب سلبي قد تتسبب به هذه النماذج.

وتابع البروفيسور زينغ متسائلاً: “هل نحتاج حقاً إلى نموذج مدعوم بمئة مليار معيار؟ فقد يكون ذلك أكثر من حاجتنا، ولعلنا قادرون على تحقيق ذات الفائدة بنسبة 1% فقط من الحجم الإجمالي لهذه النماذج. فعند امتلاك جميع البيانات في العالم وتسليمها إلى نموذج غير آمن يمتلك بضع تريليونات من المعلمات، سيكون من الصعب علينا توقع النتائج، أو تحديد ما يمكن لهذا النموذج تعلمه”.

ومن مكتبه في الحرم الجامعي بمدينة مصدر في أبو ظبي، قدم البروفيسور زينغ تشبيهاً آخر لمشاكل نماذج الذكاء الاصطناعي الكبيرة. ففي مجال صناعة الطائرات، يتمتع المهندسون بدراية كافية ووافية حول فيزياء وميكانيكا كل قطعة، ولهذا يمكنهم تحديد السبب بدقة في حال وقوع حادث ما. وقال: “لا يحدث هذا في مجال الذكاء الاصطناعي، فمسألة تصحيح الأخطاء ورصدها لا تزال أمراً شاقاً بالنسبة للباحثين. لكن، انظروا للتوجهات البحثية الآن، فهي تدور حول تخطي اختبارات ضبط الجودة، وتأسيس نماذج أكبر حتى قبل الفهم الكامل لما يمكن للنماذج الأصغر القيام به”.

وعلى الرغم من أن هذا الرأي يأتي من منظور أكاديمي بحت، إلا أن تداعياته على العالم الحقيقي قد تكون خطيرة للغاية. ويرى زينغ أن وضع ثقتنا الكاملة في قوة نماذج الذكاء الاصطناعي دون معرفة ماهية قدراتها الحقيقية قد يسبب كارثة لا تحمد عقباها. وكمثال على ذلك، عند استخدام الذكاء الاصطناعي في محطات توليد الطاقة، قد يقدم توصيات بعيدة عن الواقع دون انتباه العنصر البشري بما يقود إلى لوقوع حادث صناعي نحن في غنى عنه.

تتسبب نماذج الذكاء الاصطناعي المبهمة اليوم بآثار سلبية، واستشهد البروفيسور زينغ بسبل الإعلان على وسائل التواصل الاجتماعي وكيف لها أن تؤثر سلباً على السلوك البشري، ناهيك عن الإجابات الغريبة التي يقدمها الذكاء الاصطناعي في بعض الحالات باستخدام النماذج اللغوية القائمة على تقنياته. ووجدت شركة عاملة في قطاع الرعاية الصحية تختبر نموذج GPT-3 بأن هذا النموذج قدم نصيحة للمرضى بقتل أنفسهم، خلال تجربته عليهم.  فقد تم تدريب النموذج باستخدام كميات هائلة من البيانات النصية المتوفرة عبر الإنترنت، بما قاده لإظهار مؤشرات على التمييز الجنسي والعنصرية، والتغاضي عن النشاطات الإرهابية، إضافة إلى اتهام الناس بارتكاب جرائم الاغتصاب. ليتجلى لنا أنه لا يمكننا دائماً الاعتماد على الإنترنت.

نشهد إصدار آلاف الأوراق البحثية سنوياً لما يدعى بالخوارزميات الجديدة، والنماذج الجديدة، لكن الجهود المبذولة لفهم ماهيتها واستكشاف القواسم المشتركة والروابط الأساسية تكاد تكون معدومة..

البروفيسور إريك زينغ
رئيس جامعة محمد بن زايد للذكاء الاصطناعي
إذا كان الذكاء الاصطناعي مصدراً للمخاطر وليس للحلول، ما الذي يتعين علينا القيام به؟ وأجاب زينغ على هذا التساؤل بالتأكيد على أن جامعة محمد بن زايد للذكاء الاصطناعي تعمل على إيجاد حلول لهذه القضية. وتأسست الجامعة في شهر أكتوبر من عام 2019 لتكون أول جامعة على مستوى العالم للدراسات العليا المتخصصة في بحوث الذكاء الاصطناعي، وتوجه تركيزها نحو الذكاء الاصطناعي القادر على إيجاد حلول فعالة لمشاكل عالم اليوم، ودراسة أمور قد تكون مهملة في أماكن أخرى. ويؤكد البروفيسور زينغ أن الجامعة، التي قبلت الدفعة الأولى من طلابها في يناير، تدرس أيضاً مجموعة من أسس الذكاء الاصطناعي.

ومن بين جهود الجامعة، العمل على نظرية الذكاء الاصطناعي التي شبهها البروفيسور زينغ بـ “التوحيد العظيم” لنظريات الفيزياء في القرن التاسع عشر، ونظرية النمذجة القياسية اللاحقة، والتي تصف ثلاث قوى رئيسية في الكون من أصل أربع. وتوحد مثل هذه النظريات المجالات التي خضعت مسبقاً للدراسة بشكل فردي، وإذا ما تم العثور على شيء مماثل للذكاء الاصطناعي وتعلم الآلة، سيكون كفيلاً بتبسيط هذه المجالات وجعلها أكثر شفافية.

وأوضح البروفيسور زينغ: “نشهد إصدار آلاف الأوراق البحثية سنوياً لما يدعى بالخوارزميات الجديدة، والنماذج الجديدة، لكن الجهود المبذولة لفهم ماهيتها واستكشاف القواسم المشتركة والروابط الأساسية تكاد تكون معدومة.”. ويضيف: “لدينا نموذج قياسي للفيزياء يوحد القوى الطبيعية ويجعل من الفيزياء بسيطة. إلا أن مثل هذا النموذج لا يزال غير حاضر في مجال الذكاء الاصطناعي”.

ويرى البروفيسور زينغ أن ما يُدعى بـ”التوحيد العظيم” أو “المعادلة القياسية” لتعلم الآلة سيقدم الوضوح الفكري المطلوب للذكاء الاصطناعي، وسيشرح ما تخبرنا الخوارزميات به بناءً على الأسس الأولى.  ويساعدنا ذلك في فهم سبب قيام نموذج GPT-3 بتقديم كلمات عنصرية، أو سبب انحراف سيارة ذاتية القيادة لتصطدم بأحد المشاة. ويمكن لمثل هذه النظرية أن يحول الذكاء الاصطناعي من “ممارسة متخصصة إلى علم قائم على أسس ومبادئ محددة”، مع معادلات مبسطة توضح المدخلات والمخرجات بشفافية تامة.

ويؤكد البروفيسور زينغ أنه لا يوجد جدول زمني محدد للوصول إلى ذلك، حيث ستستمر الجهود الأكاديمية لتدعم مجالات التركيز اليومية في الجامعة، في حين نسعى للتوسع ببحوثنا في الذكاء الاصطناعي لتغطية مجالات متنوعة مثل جائحة كوفيد-19، وقدرة الخوارزميات على تشغيل محطات الطاقة النووية، والمزيد من الاستخدامات التقليدية مثل أنظمة تصحيح امتحانات الطلاب تلقائياً.

وأردف البروفيسور زينغ: “أؤمن بوجود أدوار إيجابية كثيرة يمكن للذكاء الاصطناعي لعبها للارتقاء بحياة الناس اليومية، إضافة إلى مهامه الاعتيادية الأخرى المرتبطة بتوصيات الشراء والإعلانات وغيرها. ولا شك أن الذكاء الاصطناعي سيعزز سعادة المجتمعات. ولا يخفى على أحد بأن الذكاء الاصطناعي قد يعرفك أكثر من نفسك. وكمثال، ماذا لو تمكن من التنبؤ بتعرضك لنوبة قلبية قبل 20 دقيقة من حدوث ذلك، وبالتالي يحذرك منها لاتخاذ الإجراءات المطلوبة. إن مثل هذا الأمر قابل للتحقيق برأيي، ولن يكون حدوث ذلك بعد نحو 20 عاماً أمراً مفاجئاً بالنسبة لي أبداً”.

من الناحية التقنية، من غير المرجح أن يضع الذكاء الاصطناعي البشرية أمام تهديد وجودي، في غضون مئات السنين القادمة على الأقل. إلا أن وجود نظرية للذكاء الاصطناعي ستساعد في ضمان تحقيق أفضل فهم ممكن في حال وقوع أي خطأ ما. وببساطة، إن الأمر هنا يتعلق بمجمله في معرفة الخوارزميات بدقة وما تقوم به بالتفصيل.

واختتم البروفيسور زينغ: “قد تفقد السيطرة على سيارتك، أو نفقد السيطرة على محطة للطاقة النووية. وندعو هذه الحالات بالحوادث، لأننا نعرف أن أمراً ما لم يسر على النحو الصحيح. وإذا ما نظرنا للذكاء الاصطناعي سنجد الأمر ذاته. فهو يدور حول أمور محددة قد تخرج عن مسارها، أو تتعرض لخلل ما. لذلك لا يمكننا القول بأن سيارة ذاتية القيادة ستهدد حياتنا مثلاً، بل سندعو ذلك حادثاً أيضاً”.

أخبار ذات صلة