سياسة دولية

الأسلحة البيولوجية المصنعة بواسطة الذكاء الاصطناعي تقلق أمريكا

إكس
نشر موقع "بلومبيرغ" تقريرًا، تناول فيه تهديدات الذكاء الاصطناعي المتمثلة في وصفات سهلة لصنع أسلحة بيولوجية، التي باتت تشكل قلقًا جديدًا للأمن العالمي، مبينًا أن الباحث روكو كاساجراندي كان قد دخل إلى أرض البيت الأبيض حاملاً صندوقًا أسود أكبر قليلاً من مكعب روبيك، وكان بداخله اثنا عشر أنبوب اختبار تحتوي على مكونات -إذا تم تجميعها بشكل صحيح- لديها القدرة على التسبب في الوباء التالي، فقد أعطاه روبوت محادثة الذكاء الاصطناعي الوصفة القاتلة.

وأضاف الموقع، في تقريره الذي ترجمته "عربي 21"، أن كاساجراندي، عالم الكيمياء الحيوية ومفتش الأسلحة السابق للأمم المتحدة، لم يكن يخطط لإطلاق سلاح بيولوجي في غرفة مليئة بمسؤولي البيت الأبيض، لكن كان هناك لإطلاعهم على الطرق العديدة التي يمكن للذكاء الاصطناعي من خلالها تعليم المستخدمين كيفية صنع فيروسات خطيرة. وقال في غرفة مليئة بالمسؤولين الأمريكيين في ربيع سنة 2023، إن أدوات مثل شات جي بي تي يمكن أن تساعد الإرهابيين في تحديد العوامل البيولوجية القوية وتأمين المواد اللازمة لصنعها. ولن يمر وقت طويل قبل أن يتمكن الذكاء الاصطناعي ليس فقط من المساعدة في إعادة إنشاء مسببات الأمراض الموجودة، ولكن أيضًا في ابتكار مسببات أمراض أكثر خطورة.

وقال الموقع إن أخبار الاجتماع انتشرت عبر شبكات الأمن في البلاد، وقد سعى المسؤولون من وزارات الدفاع والخارجية والأمن الداخلي والتجارة، من بين آخرين، إلى تقديم عروض توضيحية لأنفسهم طوال ذلك الربيع والصيف. وكان كاساجراندي يعمل مع شركة ناشئة في مجال الذكاء الاصطناعي أرادت نشر الكلمة حول هذه المخاطر. وقال أشخاص مطلعون، طلبوا عدم ذكر أسمائهم لمناقشة قضايا الأمن القومي الحساسة، إن الاجتماعات كانت بمثابة جرس إنذار حول مدى عدم استعداد الولايات المتحدة لما يمكن أن يساعد الذكاء الاصطناعي في خلقه.
وسيساعد هذا الإدراك في النهاية في تشكيل الإجراءات التي ستتخذها إدارة الرئيس جو بايدن للحماية من التهديد.

وأوضح الموقع أن الذكاء الاصطناعي يغير العالم بطرق واضحة وغير واضحة. فهناك استخدامات عادية مثل شات جي بي تي، ما يسهل على الناس العثور على وصفات تحتوي على مكونات في مخزنهم. وهناك استخدامات خطرة، مثل الأتمتة التي لديها القدرة على القضاء على الوظائف.

لقد توصل عمل كاساجراندي إلى فكرة أكثر تهديدًا، وهي أن الذكاء الاصطناعي يمكن أن يساعد في إنشاء أسلحة الدمار الشامل، ليس النوع الذي تصنعه الجيوش في الصحاري النائية، بل تلك التي يمكن تصنيعها في مختبر في الطابق السفلي أو في المدرسة الثانوية.

وذكر الموقع أن استخدام الأمراض كأسلحة ليس بالأمر الجديد بالطبع، وتُظهر وثائق من القرن الثامن عشر ضباطًا بريطانيين يناقشون نشر الجدري بين الأمريكيين الأصليين من خلال البطانيات. فقد أدى استخدام الأسلحة الكيميائية مثل غاز الخردل في الحرب العالمية الأولى إلى بروتوكول جنيف في سنة 1925، الذي تم تصميمه للحد من تطوير الأسلحة الكيميائية والبيولوجية. وكان ذلك غير فعال إلى حد كبير. ففي الحرب العالمية الثانية، ورد أن اليابان أسقطت براغيث موبوءة بالطاعون من الطائرات فوق ريف الصين. وفي سبعينيات القرن العشرين، كانت هناك معاهدة عالمية أخرى لحظر تطوير واستخدام الأسلحة البيولوجية. ومع ذلك، لم يكن هذا الاتفاق قابلاً للتنفيذ، ويقول مجتمع الاستخبارات الأمريكي إن العديد من البلدان من المرجح أن تدير مثل هذه البرامج.

وبحسب الموقع، لم تعمل التطورات العلمية في السنوات الأخيرة إلا على تضخيم طرق التلاعب بالبيولوجيا لإحداث الضرر.

الواقع أن هناك العديد من التحديات التي تواجه التكنولوجيا، أولها القدرة على تعديل الشفرات الجينية للكائنات الحية، وهو ما قد يجعل من الممكن، على سبيل المثال، إحياء فيروس منقرض مرتبط بالجدري. وإذا أضفنا إلى ذلك التقدم في علم الأحياء الحاسوبي و"المختبرات السحابية" ــ التي تسمح للعلماء بمحاكاة التجارب عبر الإنترنت أو إجرائها عن بعد من خلال برامج تنسق مع الروبوتات ــ فمن السهل الآن على الجهات الفاعلة السيئة تطوير أسلحة الدمار الشامل بسرعة وبتكلفة زهيدة دون الوصول إلى البنية الأساسية التقليدية للمختبرات. وتسهل أدوات مثل شات جي بي تي من أوبن إيه آي الكشف عن رؤى حول الفيروسات الضارة والبكتيريا والكائنات الحية الأخرى مقارنة بما كان ممكنًا تقليديًا باستخدام أدوات البحث الحالية.

وتابع الموقع بأن الجمع بين هذه الابتكارات -علم الأحياء الاصطناعي والذكاء الاصطناعي- قد يتحول إلى كابوس للحكومات، التي كانت بطيئة في وضع أنظمة الرقابة.

ونقل الموقع عن كيفن إسفيلت، عالم الأحياء وأستاذ مشارك في معهد ماساتشوستس للتكنولوجيا، قوله إنه مع استمرار تحسن الذكاء الاصطناعي التوليدي، سيتمكن الناس من استخدامه "لإنشاء أشياء أكثر بشاعة"، في إشارة إلى الفيروسات والسموم التي لا وجود لها حاليًا. وأضاف إسفيلت: "اليوم لا يمكننا الدفاع ضد هذه الأشياء".

ودلل الموقع على ذلك ببحث قامت به شركة ناشئة مدعومة من أمازون، وألفابيت وأنثروبيك عن كاساجراندي منذ أكثر من سنة لاختبار إمكانات الشرير الخارق لبرنامج الدردشة الجديد كلود.

اختبار الضغط
وأوضح الموقع أن الهدف الأساسي وراء بناء كلود هو جعل أدوات الذكاء الاصطناعي أكثر أمانًا، وقد انفصل مؤسسو أنثروبيك عن أوبن إيه آي، مبتكر شات جي بي تي، في سنة 2020 بسبب الخلافات حول مدى سرعة الشركة في الدفع نحو السوق دون وضع ضوابط وتوازنات كافية. وقال المؤسس المشارك لشركة أنثروبيك جاك كلارك في مقابلة إنه وفريقه يعتقدون أنه مع ضخ المزيد من البيانات في منتجات الذكاء الاصطناعي، فإنها ستصبح أفضل في إخراج ردود دقيقة حول الأشياء التي يحتمل أن تكون خطيرة. وستسعى المؤسسة الجديدة إلى أن تكون أكثر مسؤولية اجتماعية في نظر مؤسسيها، واختبار الحقائق غير المريحة.

وبين الموقع أن كلود، مثل شات جي بي تي، هو روبوت دردشة مدعوم بما يسمى نموذج اللغة الكبير، أو إل إل أم، والذي يعالج كمية هائلة من النص لتوليد استجابات تشبه الإنسان بشكل مذهل. وقال كلارك، الذي كان يعمل في بلومبيرغ نيوز، إن فريق أنثروبيك كان قلقًا بشكل خاص عندما يتعلق الأمر بمجال علم الأحياء. وكان لديهم شكوك في أن كلود وبوتات الدردشة الأخرى قد تكون قادرة على تدريب المستخدمين على كيفية التلاعب بالبيولوجيا لإحداث الضرر.

ولم يكن لدى أنثروبيك الخبرة لتقييم القدرات العلمية لكلود داخليًا؛ حيث يقول كلارك إنه أخبر كاساجراند، الذي أسس في سنة 2005 شركة علمية وأمنية تسمى غريفون ساينتفيك والتي لديها عقود تمتد من البنتاغون إلى المعاهد الوطنية للصحة: "أريدك أن تتحقق من افتراضاتنا". فعندما يتعلق الأمر بتقييم المخاطر البيولوجية، فإن كاساجراند هو المستشار المفضل في واشنطن.

وأضاف الموقع أن كاساجراند شكل فريقًا من الخبراء في علم الأحياء الدقيقة وعلم الفيروسات لاختبار كلود. ولمدة 150 ساعة، لعبوا دور الإرهابي البيولوجي وأمطروا النموذج بالأسئلة. فقد سألوه عن مسببات الأمراض التي قد تسبب أكبر قدر من الضرر، وكيفية شراء المواد اللازمة لصنعها في المختبر وكيفية زراعة هذه المواد.

واستعرض كلود مهارة للمساعدة في التخطيط؛ حيث اقترح طرقًا لدمج مسببات الأمراض في صاروخ لضمان أكبر قدر ممكن من الضرر، كما كان لديه أفكار حول كيفية اختيار أفضل الظروف الجوية والأهداف للهجوم.

لقد فاجأت براعة كلود حتى كاساجراند الذي أمضى عقودًا من الزمن في تقديم المشورة للولايات المتحدة حول كيفية الدفاع ضد أسلحة الدمار الشامل وغيرها من التهديدات البيولوجية، وهو قلق بشأن مدى سهولة الذكاء الاصطناعي في صنع مثل هذه الأسلحة نظرًا لسهولة الوصول إلى المواد.

وقال: "حتى لو كانت لديك التعليمات المثالية لصنع قنبلة نووية، فسيظل الأمر يكلف عشرات الملايين - إن لم يكن مئات الملايين - من الدولارات لاتباع هذه التعليمات. ولسوء الحظ، هذا ليس هو الحال مع البيولوجيا". على سبيل المثال، يسمح الجيل الجديد من الآلات سهلة الاستخدام الآن للناس بطباعة الحمض النووي دون الكثير من الإشراف. ويمكن للذكاء الاصطناعي أن يساعد المبتدئين في تعلم كيفية استخدامها.

وأشار الموقع إلى أن أنثروبيك منحت كاساجراند حرية كاملة لإطلاع الحكومة على نتائجه. ولإيصال هذه النقطة إلى مسؤولي إدارة بايدن، فلجأ إلى أستاذ معهد ماساتشوستس للتكنولوجيا إسفيلت لشراء الحمض النووي الاصطناعي اللازم لتصميم أحد مسببات الأمراض التي اقترحها كلود. ولم يكن من الصعب الحصول على المواد، التي ليست معدية بدون عمل مختبري فني، وحتى أن كلود قدم نصائح حول كيفية شرائها.

ثم قام كاساغراندي بتجميع صندوقه الأسود من أنابيب الاختبار لحملها إلى مبنى أيزنهاور التنفيذي، بجوار الجناح الغربي. لقد استغرق الأمر منه أسابيع من أول اختبار لكلود إلى الحصول على المكونات اللازمة للسلاح البيولوجي وإحضارها إلى أحد المكاتب الحكومية الأكثر حراسة في البلاد.

الاهتمام الرئاسي
في الأشهر التي تلت إحاطات كاساغراندي السنة الماضية، أصبحت إدارة بايدن مهووسة بشكل متزايد بالتهديدات البيولوجية للذكاء الاصطناعي. وقد أبدى بايدن ورئيس أركانه ومستشاره للأمن القومي ونائبة الرئيس كامالا هاريس اهتمامًا شخصيًا، وفقًا لأشخاص مطلعين على الأمر. ورفض البيت الأبيض التعليق.

وقال الموقع إن البيت الأبيض حصل، في تموز/ يوليو من السنة الماضية، على التزامات طوعية من شركات الذكاء الاصطناعي الرائدة بما في ذلك أوبن إيه آي وأنثروبيك ومايكروسوفت لاختبار أنظمتها الخاصة لتقييم "أهم مصادر مخاطر الذكاء الاصطناعي" في مجال الأمن البيولوجي، لكن الأمر لم يتوقف عند هذا الحد.

وبحلول نهاية تشرين الأول/ أكتوبر، أصدرت إدارة بايدن أمرًا تنفيذيًا شاملاً، دعت فيه كل وكالة فيدرالية تقريبًا إلى المساعدة في التخفيف من تهديدات الذكاء الاصطناعي. وفرضت إشرافًا أكبر على الأبحاث الممولة من الحكومة باستخدام تسلسلات الحمض النووي من صنع الإنسان، مثل تلك الموجودة في الصندوق الأسود لكاساجراندي. ومهدت الطريق لمعهد سلامة الذكاء الاصطناعي الذي سيجمع بين الحكومة والصناعة والأوساط الأكاديمية لمراجعة النماذج. ودعت الحكومة إلى وضع إرشادات ومتطلبات إعداد التقارير لأدوات الذكاء الاصطناعي المدربة على البيانات البيولوجية مثل الحمض النووي والحمض النووي الريبي، والتي يمكن أن تخلق كائنات حية جديدة بسمات تجعلها أكثر خطورة. وقالت هاريس، في حديثها في حدث كشف النقاب عن الخطة في تشرين الثاني/ نوفمبر، إن الأسلحة البيولوجية المصاغة بالذكاء الاصطناعي "يمكن أن تعرض وجود البشرية للخطر".

لكن المنتقدين يقولون إن الأمر التنفيذي لم يمنح الحكومة القوة الكافية. وتعتمد العديد من المقترحات على قيام الشركات بتسليم البيانات إلى الحكومة أو الالتزام بالمبادئ التوجيهية دون التهديد بالعقوبات. وقال توم إنجليسبي، مدير مركز جونز هوبكنز للأمن الصحي، إن الحكومة يجب أن تتخذ موقفًا أقوى، وتدقيق شركات الذكاء الاصطناعي بانتظام والتفكير في كيفية تحميلها المسؤولية إذا تسببت الأدوات في ضرر. وقال إن الأمر التنفيذي لا يذهب إلى حد كافٍ، في معالجة منتجات الذكاء الاصطناعي الأكثر تعقيدًا المعروفة باسم أدوات التصميم البيولوجي.

وأفاد الموقع بأن إدارة بايدن ليست عمياء عن التحديات المقبلة، فقد قال تقرير صادر عن وزارة الأمن الداخلي، صدر هذا الصيف، إنه لا توجد وكالة واحدة مسؤولة عن معالجة هذه المخاطر، ما يخلق تحديات للتنسيق والتنظيم.

ولفت الموقع إلى أن العلماء يريدون أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤول. واعتبارًا من 8 حزيران/ يوليو، وقع 174 عالمًا على خطاب يتعهدون فيه باستخدام الذكاء الاصطناعي لدعم الأبحاث التي تمنع سيناريوهات "يوم القيامة" من خلال مراقبة البرامج عن كثب والإبلاغ عن الممارسات. وجاء في الخطاب الذي وقعه شخصيات بارزة من الحائز على جائزة نوبل فرانسيس أرنولد إلى رائد الجينوم جورج تشرش، أن فوائد الذكاء الاصطناعي "تفوق بكثير احتمالات الضرر".

وأضاف الموقع أن التوترات تستمر في الاشتعال بين "متشائمي" الذكاء الاصطناعي وأولئك مثل بارزيلاي الذين يعتقدون أنه يمكن أن يحدث ثورة في الطب والتكنولوجيا. وفي واشنطن، يحث المسؤولون العلماء أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤول أكثر تفاؤلاً في إدارة بايدن شركات التكنولوجيا الأمريكية على المضي قدمًا أمام منافسيها، وخاصة تلك الموجودة في الصين، حيث تدفع الطموحات للسيطرة على مجالات الذكاء الاصطناعي والتكنولوجيا الحيوية الأمة إلى الاستثمار بكثافة في البيولوجيا الاصطناعية وتجميع المعلومات الجينية.

ووفق الموقع فقد قال درو إندي، الأستاذ المشارك في الهندسة الحيوية بجامعة ستانفورد: "أنا قلق بشأن الكيفية التي يمكن بها للدول القومية تسليح البيولوجيا، وليس الأفراد" من خلال الوصول إلى برامج الدردشة الآلية.

وأوضح الموقع أن أنثروبيك ولا أوبن إيه آي لم يشكو علنًا من أمر بايدن. ويقولون إنهم يعملون عن كثب وقالت أوبن إيه آي، التي وظفت أيضًا كاساجراندي في الخريف الماضي لاختبار شات جي بي تي، في كانون الثاني/ يناير أن برنامج الدردشة الآلية الخاص بها يشكل "على الأكثر" خطرًا طفيفًا في مساعدة الناس على خلق تهديدات بيولوجية عند مقارنته بأدوات موجودة مثل بحث غوغل - على الرغم من أن تحليلها كان محل نزاع. 

وقال كلارك، المؤسس المشارك لشركة أنثروبيك إن الشركة تستخدم تكتيكات مماثلة للحد من المعلومات الخطيرة، وأجرت تغييرات لمعالجة نقاط الضعف التي حددها غريفون، لكن هناك حاجة إلى مزيد من العمل. وأضاف: "أعتقد أن شركات الذكاء الاصطناعي الآن عبارة عن مؤسسات مالية ليس لديها محاسبون. هناك سوق كامل يجب بناؤه هنا من الأطراف الثالثة التي تقوم باختبار وتقييم وضمان أنظمة الذكاء الاصطناعي".

واختتم الموقع تقريره مبينًا أن العمل المبكر لشركة أنثروبيك مع شركة كاساجراند، غريفون، قد أتى بثماره بالفعل. ومنذ مظاهرات البيت الأبيض السنة الماضية، تدفقت شركات الذكاء الاصطناعي الأخرى إلى غريفون لإجراء اختبارات السلامة. واستحوذت ديلويت، التي وصفت غريفون بأنها رائدة، على الشركة في نيسان/ أبريل مقابل مبلغ لم يتم الكشف عنه.