اخر الاخبارالمال والاعمال

تحذير شديد من الأب الروحي للذكاء الاصطناعي من المخاطر القوية

ft

النماذج الأقوى قد تتحول إلى «خلية من العقول» تشارك ما تعلمته مع بعضها البعض

طوال تاريخها، قام بإلقاء المحاضرة السنوية العامة في جامعة أوكسفورد، سلسلة طويلة من المتحدثين المرموقين، تراوحوا بين السير ونستون تشرشل وحتى الكاتبة والفليسوفة آيريس مردوخ، وكان استهلها رئيس الوزراء الراحل ويليام غلادستون في العام 1892.

لكن نادراً، إن كان حدث أصلاً، ما تمكّن أحد المحاضرين من إلقاء مثل هذا التعليق الآسر، مثلما فعل جيفري هينتون، منذ أيام. لقد خَلُصَت محاضرة الباحث البارز في مجال الذكاء الاصطناعي، والتي حملت عنواناً مستفزاً هو: «هل يحلّ الذكاء الرقمي محل الذكاء البيولوجي؟»، إلى: إجابة مؤكدة تقريباً هي نعم. لكن هينتون رفض فكرة شائعة في بعض دوائر التكنولوجيا على الساحل الغربي، مفادها أن الإنسانية تتسم بـ«العنصرية» إلى حد ما في مواصلة تأكيد أفضلية الجنس البشري على الأشكال الإلكترونية من الذكاء. ومازح قائلاً: «يتعين علينا، نحن البشر، بذل أفضل ما بوسعنا لكي نظل موجودين».

لقد حاز عالم الكمبيوتر البريطاني-الكندي على شهرته باعتباره واحداً من رواد تقنيات «التعلق العميق» التي أسفرت عن ثورة الذكاء الاصطناعي، وأتاحت ابتكار روبوتات دردشة الذكاء الاصطناعي التوليدي، مثل «تشات جي بي تي». وعبر هينتون، طوال أغلب مشواره العملي في المجال الأكاديمي ولدى «غوغل»، عن اعتقاده بأن الذكاء الاصطناعي لم يشكّل تهديداً للبشرية. لكن الباحث الذي يبلغ من العمر 76 عاماً قال إنه مر بـ «لحظة تبصر» خلال العام الماضي، ترك على إثرها العمل لدى «غوغل» للحديث علناً بشأن المخاطر التي يحملها الذكاء الاصطناعي في طياته.

لقد أدرك هينتون أن النماذج الأقوى للذكاء الاصطناعي قد تُفضي إلى أن تتصرف معاً مثل «خلية من العقول»، وتتشارك مع بعضها بعضاً ما تعلمته، ما سيمنحها ميزة هائلة على البشر. وأخبرني في لقاء قبل إلقائه محاضرته: «جعلني هذا أدرك أنها معاً ربما تصير شكلاً أفضل من أشكال الذكاء».

قد يكون حتى الآن ضرباً من الخيال أن بضعاً من سطور أكواد البرمجيات يمكن أن تشكل تهديداً للبشرية، لكن هينتون يرى خطرين أساسيين. يتمثل الأول في إعطاء البشر «الشريرين» الآلات، أهدافاً غير سوية لهذه الآلات، واستخدامها لأغراض سيئة وخبيثة، مثل التضليل الجمعي والإرهاب البيولوجي، والحرب السيبرانية، وكذلك خلق روبوتات قاتلة. وتضع النماذج مفتوحة المصدر للذكاء الاصطناعي، مثل «تطبيقات النماذج اللغوية الكبيرة» لشركة «ميتا»، قدرات هائلة بين أيدي غير الأسوياء. وقال: «أعتقد بأنه من الجنون توفير المصادر المفتوحة لمثل هذه النماذج الكبيرة».

كما أنه يتنبأ بأن «ترتقي» هذه النماذج بنفسها بصورة خطيرة، وأن تطور «نية ذاتية» لفرض التحكم والسيطرة. وأوضح: «إذا كنت لأقدم المشورة للحكومات، لقلت إن هناك احتمالية تبلغ نسبتها 10 % أن تمحو هذه الأشياء البشرية في غضون العشرين عاماً المقبلة. وأعتقد أن هذا رقم معقول».

وقد تعرضت وجهات نظر هينتون لهجوم شديد على صعيدين. أولهما، أن بعض الباحثين يرون أن نماذج الذكاء الاصطناعي التوليدي ليست إلا حيلاً إحصائية باهظة التكلفة، وأن المخاطر الوجودية الناجمة عن التكنولوجيا ليست سوى «خيال علمي».

ودفع نعوم تشومسكي، العالم البارز، بحُجة، مفادها أن البشر ينعمون بـ «نظام تشغيل» مُثبّت جينياً يساعدهم في فهم اللغة، الأمر الذي تفتقر إليه الآلات. لكن هينتون اعتبر ذلك هراءً، بالنظر إلى آخر نماذج «أوبن إيه آي»، والذي يحمل اسم «جي بي تي 4»، يستطيع تعلّم اللغة وإظهار التعاطف، واستخدام المنطق، بل السخرية. وقال في محاضرته: «يمكنني أن أدعي بقوة أن هذه النماذج بإمكانها الفهم».

وجاء المصدر الثاني للهجوم من يان ليكون، كبير علماء الذكاء الاصطناعي لدى «ميتا». والذي يُعد أحد أبرز داعمي النماذج مفتوحة المصدر. وقد دفع بحُجة مفادها أن أنظمتنا الحالية للذكاء الاصطناعي أكثر غباءً من القطط، وأنه من «المنافي للعقل» الاعتقاد في أنها تشكل تهديداً على البشر، سواء عمداً أو على نحو تلقائي. ورد هينتون قائلاً: «أعتقد أن يان ساذج بعض الشيء. إن مستقبل البشرية لن يتوقف على هذا الأمر».

إن اللهجة الهادئة وإلقاءه المدروس بعناية تتناقض تماماً مع القدرية الصارخة التي تتسم بها رسالته. لكن هل من شيء يمكن فعله لتحسين فرص البشرية؟ كان رده: «كم أود لو كنت أعرف»، وأردف: «أنا لست هنا لأتحدث عن حل بعينه، وإنما ألقي الضوء على المشكلة فحسب».

وكان هينتون باستضافة المملكة المتحدة لقمة سلامة الذكاء الاصطناعي في «بليتشلي بارك» أواخر العام الماضي، لأن الأمر حفّز جدالاً دولياً حول هذا الأمر برمته. ولكن منذ ذلك الحين، وحسب ما صرح به، فإن الحكومة البريطانية «قررت في الأساس أن الأرباح تحل أولاً قبل السلامة». وكما هي الحال مع التغير المناخي، يعتقد هينتون أن التغيير الجاد للسياسة لن يأتي إلا بعد الوصول إلى إجماع علمي. وأعرب عن قبوله بمسألة غياب هذا الأمر عن عالمنا اليوم. واستشهد بما قاله ماكس بلانك، الفيزيائي المرموق: «يتقدم العلم بعد جنازة تلو الأخرى».

وأعرب هينتون عن شعوره بالارتياح، لأن جيلاً أصغر من علماء الكمبيوتر يأخذون هذا الخطر الوجودي على محمل الجد، مقترحاً ضرورة تركيز 30 % من الباحثين في مجال الذكاء الاصطناعي على المشكلات ذات الصلة بالسلامة، مقارنة بنحو 1 % فقد في الوقت الحالي. إننا يجب أن ننتبه أكثر للباحثين الذين يخلُصون إلى الحاجة لمزيد من البحوث. وفي هذه الحالة، وبالنظر إلى المخاطر وأوجه عدم اليقين ذات الصلة بالأمر، حري بنا أن نسارع الخطى. والمثير للغاية غير العادي في النقاش حول مخاطر الذكاء الاصطناعي هو النطاق الواسع لوجهات النظر المتعددة الموجودة على الساحة. لذلك، يتوجب علينا التوصل إلى حال من الإجماع.

كلمات دالة:
  • FT

تحذير شديد من الأب الروحي للذكاء الاصطناعي من المخاطر القوية

المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى
إغلاق

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock