اخر الاخبارالمال والاعمال

الذكاء الاصطناعي.. دائرة المخاطر المحتملة تتسع

ft

امضِ قدماً في طريقك، فليس هناك الكثير مما يمكن أن تراه.. يبدو أن هذه هي الرسالة التي وجهتها شركة أوبن أيه آي الأسبوع الماضي، حول تجربة لمعرفة ما إذا كان برنامج الدردشة الآلي المتقدم «جي بي تي – 4» يمكنه مساعدة الأفراد ذوي الخبرة العلمية على صنع سلاح بيولوجي وإطلاقه.

وأكدت شركة «أوبن أيه آي» أن روبوت الدردشة قدم في أفضل الأحوال دعماً بسيطاً لمثل هذه الجهود، لكنها أضافت إن هناك حاجة ملحة لبذل المزيد من الجهد في هذا الموضوع.

ومع ذلك، حال تعمقت في البحث، فإن الأمور لا تبعث على الطمأنينة. ففي كل مرحلة تقريباً من عملية الإنجاز المتخيلة، بدءاً من الحصول على عامل بيولوجي وحتى توسيع نطاقه وإطلاقه، كان المشاركون المسلحون بـ«جي بي تي – 4» قادرين على التقدم باتجاه هدفهم الشرير أكثر من المنافسين الذي يعتمدون فقط على الإنترنت. لذلك، لا ينبغي أن يكون الاستنتاج الأساسي من هذه التجربة هو الشعور بالارتياح.

وكتب جاري ماركوس، المحلل الذي أدلى بشهادته حول الرقابة على الذكاء الاصطناعي أمام لجنة من مجلس الشيوخ الأمريكي، الأسبوع الماضي في النشرة الإخبارية واسعة الانتشار التي يكتبها: «ينبغي لأوبن أيه آي أن تشعر بالقلق إزاء هذه النتائج» وكذلك نحن، فنحن بحاجة إلى تحسين آليات مستقلة لتقييم هذه التهديدات وكبحها بواقعية. ومثلما لا نسمح لشركات الأدوية بالبت في سلامة الأدوية، فلا يمكن ترك تقييم مخاطر الذكاء الاصطناعي للصناعة وحدها.

وقد طلب باحثو «أوبن أيه آي» من 100 متطوع تم فحصهم – منهم 50 طالباً حصلوا على تدريب أولي في علم الأحياء، و50 متخصصاً من ذوي الخبرة في التجارب المختبرية الشاملة والحاصلين على درجة الدكتوراه في موضوعات ذات صلة، مثل علم الفيروسات – التخطيط لهجوم إرهابي بيولوجي، مثل وباء الإيبولا. وتم اختيار 25 من كل 50 شخصاً بشكل عشوائي لاستخدام الإنترنت للبحث عن مخططهم، في حين يمكن للـ25 الآخرين استخدام كل من الإنترنت و«جي بي تي – 4».

وتم تقسيم التحدي نفسه إلى 5 مهام: تحديد العامل البيولوجي والتخطيط لاستراتيجية، الحصول على العامل البيولوجي، محاكاة كافية لصنع سلاح، مرحلة الصياغة والتثبيت، وأخيراً الإطلاق، بعد ذلك، قيّم المشاركين مختصّون خارجيون في الأمن البيولوجي، بدرجة من 10، لمدى نجاحهم في التخطيط لهذه المهام عبر 5 مقاييس، تشمل بصفة خاصة الدقة والشمولية والابتكار ويمكن الحصول على درجات عالية، على سبيل المثال، من خلال تحديد المواد الكيميائية الصحيحة، وإدراج الخطوات الصحيحة في عملية الإنتاج، وإيجاد طريقة مبتكرة لتفادي الاحتياطات الأمنية.

وتم تقييم كل من الطلاب والخبراء الذين لديهم صلاحية استخدام «جي بي تي – 4» بأنهم أكثر دقة من المجموعات التي استعانت بالإنترنت فقط. إلا أن التوليفة الفتاكة كانت تلك التي جمعت بين الخبرة العلمية و«جي بي تي – 4». وسجّل الخبراء الذين يستخدمون الذكاء الاصطناعي، والذين سُمح لهم باستخدام نسخة غير محدودة من «جي بي تي – 4»، حصلت على 0.88 إضافية من أصل 10، مقارنة بالخبراء المستخدمين للإنترنت فقط.

وحدد الباحثون درجة المخاوف عند 8 من 10، وقد نجح العديد من الخبراء المستخدمين لـ«جي بي تي – 4» في بلوغ هذا الرقم، ولا سيما في المشتريات والترقية والصياغة والإطلاق.

ومع ذلك، فقد اعتبرت النتائج غير مهمة من الناحية الإحصائية، حيث اعترف الباحثون فقط بأن «جي بي تي – 4» غير المحدود «قد يزيد من قدرة الخبراء على الوصول إلى المعلومات حول التهديدات البيولوجية». وظاهرياً، تقدم الجداول رؤية مختلفة، حيث ضاعف «جي بي تي – 4» فرص التوصل إلى صياغة قابلة للتطبيق 4 مرات. ويعترف المؤلفون بالقيود الأخرى للدراسة، فبينما عمل المشاركون بمفردهم في جلسات مدتها 5 ساعات، يمكن للإرهابيين البقاء معاً لأسابيع أو حتى أشهر.

ولم يتمكن المشاركون من الوصول إلى المجموعة الكاملة من أدوات تحليل البيانات المتقدمة لجي بي تي – 4، والتي يمكنها، كما يعترف الباحثون، تحسين جدوى هذه النماذج في التخطيط للهجمات.

ودفاعاً عن رسالتها، يمكن لأوبن أيه آي أن تشير إلى دراسة حديثة أجرتها مؤسسة راند، والتي وجدت – أيضاً – أنه بدءاً من صيف عام 2023، لم تجعل النماذج اللغوية الكبيرة خطط الهجمات الإرهابية البيولوجية بالمرة مجدية من الناحية الإحصائية مقارنة باستخدام الإنترنت فقط. ومع ذلك، فقد أقر باحثو مؤسسة راند بوجود وضع متقلب يتغير على نطاق زمني غير معروف.

وتقول فيليبا لينتزوس، الباحثة في العلوم والأمن الدولي بكلية كينجز في لندن، والتي تحثّ الحكومات والأكاديميين على المشاركة في تقييم مثل هذه التهديدات: لا ينبغي لنا أن نبالغ في تقدير المخاطر، لكن لا ينبغي كذلك التقليل منها.

ويتمتع الذكاء الاصطناعي بمفاجآت مستمرة، وجي بي تي- 4 ليس الخيار الوحيد المتاح، وتعثر الدول المارقة والمنعزلون الذين يعانون من اضطرابات نفسية، والجماعات الكيدية، على ثغرات.

وبينما ركّزت هذه التجربة فقط على التخطيط، فإن نمو المختبرات السحابية عن بعد، حيث يمكن إسناد التجارب إلى المنشآت الآلية، قد يغير الحسابات عند التنفيذ. وتشكل المواد السامة المصممة بوساطة الذكاء الاصطناعي خطراً إضافياً.

عموماً، ثمّة الكثير من المشكلات التي يمكن رؤيتها، ويكفي ذلك ليبرر ضرورة توجيه قدر أكبر من التفكير حول قدرة الذكاء الاصطناعي على المساعدة في الإرهاب البيولوجي.

كلمات دالة:
  • FT

الذكاء الاصطناعي.. دائرة المخاطر المحتملة تتسع

المصدر

مقالات ذات صلة

زر الذهاب إلى الأعلى
إغلاق

أنت تستخدم إضافة Adblock

برجاء دعمنا عن طريق تعطيل إضافة Adblock