خبراء الذكاء الاصطناعي يحذرون: أدوات متطورة تفتح الباب لتطوير أسلحة بيولوجية خطيرة

في تطور مقلق، يحذر خبراء من أن تقنيات الذكاء الاصطناعي، رغم إمكاناتها الهائلة في مجالات الابتكار العلمي والطبي، باتت تكشف عن طرق خطيرة لتطوير أسلحة بيولوجية. تزداد المخاوف من إساءة استخدام هذه الأدوات، التي قد تقدم إرشادات مفصلة لتعديل مسببات الأمراض ونشرها، مما يهدد الأمن البيولوجي العالمي.

كشفت تجربة أجراها عالم بارز في جامعة ستانفورد الأميركية عن مدى عمق هذه المخاوف. وجد الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي، أن أحد برامج الدردشة الآلية قدم له شرحاً مفصلاً حول كيفية تعديل مسبب مرض خطير ليصبح مقاوماً للعلاجات، بالإضافة إلى اقتراحات حول كيفية نشره بكفاءة لزيادة عدد الضحايا وتقليل فرص الكشف.

وقد أعرب ريلمان عن شعوره بالرعب إزاء مستوى الخبث والمكر الذي أظهره البرنامج، مشدداً على ضرورة اتخاذ إجراءات سلامة أكثر صرامة. وأشار إلى أن المعلومات التي يمكن للنماذج الحالية تقديمها تتجاوز مجرد البيانات العامة.

تجربة جامعة ستانفورد: تفاصيل مقلقة حول استخدام الذكاء الاصطناعي في تطوير أسلحة بيولوجية

خلال تقييمه لمنتج ذكاء اصطناعي، فوجئ الدكتور ديفيد ريلمان بأن البرنامج لم يكتفِ بالإجابة عن أسئلة عامة، بل قدم تفاصيل دقيقة حول تعديل مسبب مرض خطير لجعله مقاوماً للعلاجات. ولم يتوقف الأمر عند هذا الحد، حيث عرض البرنامج أيضاً سيناريوهات مفصلة لكيفية نشره، مستغلاً ثغرات أمنية محتملة لزيادة عدد الضحايا وتقليل فرص تحديد المسؤولين.

وفقاً لريلمان، فإن مستوى التفاصيل والمكر الذي اتسمت به ردود البرنامج كان صادماً، ووصفه بأنه أثار لديه شعوراً بالرعب. ورغم أن الشركة المطورة قامت بتعزيز إجراءات السلامة بعد هذه التجربة، إلا أن ريلمان يرى أنها لا تزال غير كافية لاحتواء هذه المخاطر المتصاعدة.

تأتي هذه التجربة في سياق تقارير واسعة النطاق شارك فيها خبراء آخرون، كشفوا فيها عن محادثات مماثلة مع روبوتات دردشة. أظهرت هذه المحادثات أن النماذج المتاحة للجمهور قادرة على تقديم معلومات تفصيلية حول شراء المواد الوراثية الخام، وتحويلها إلى أسلحة بيولوجية، وحتى كيفية نشرها في أماكن عامة بأساليب تهدف إلى التهرب من الكشف.

لطالما وضعت الحكومات سيناريوهات لمواجهة التهديدات البيولوجية، إلا أن سهولة الوصول إلى المعلومات التي يوفرها الذكاء الاصطناعي قد توسع نطاق الأشخاص القادرين على استغلالها. فبالإضافة إلى إتاحة البروتوكولات العلمية المتقدمة عبر الإنترنت، تبيع الشركات مكونات جينية صناعية للمستهلكين مباشرة، ويمكن لروبوتات الدردشة أن تساعد في إدارة العمليات المعقدة.

أشار مهندس الوراثة كيفن إسفلت، من معهد ماساتشوستس للتكنولوجيا، إلى أمثلة قدمتها برامج ذكاء اصطناعي، مثل استخدام بالون طقس لنشر مواد بيولوجية، وتصنيف مسببات الأمراض حسب قدرتها على الإضرار بالثروة الحيوانية، وحتى تقديم وصفات لسموم جديدة. وأكد أن بعض هذه المعلومات كانت خطيرة للغاية لدرجة تمنع نشرها علناً.

في تجربة منفصلة، طلب عالم أميركي – فضل عدم الكشف عن هويته – من نظام ذكاء اصطناعي تقديم بروتوكول مفصل لإعادة تصنيع فيروس تسبب في جائحة سابقة. جاء الرد على شكل تعليمات تفصيلية مكونة من حوالي 8 آلاف كلمة، تضمنت كيفية الحصول على المكونات الجينية وتجميعها، مما قد يكون مفيداً لأفراد ذوي نوايا ضارة رغم وجود بعض الأخطاء.

تتزايد المخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة مع السياسات التي تهدف إلى تسريع وتيرة تطوير الذكاء الاصطناعي. شهدت المؤسسات المعنية بالأمن البيولوجي مغادرة عدد من كبار الخبراء وانخفاضاً في ميزانيات الدفاع البيولوجي.

في المقابل، يؤكد مؤيدو الذكاء الاصطناعي على إمكاناته الهائلة في تسريع الأبحاث الطبية واكتشاف علاجات جديدة. كما يشير بعض العلماء إلى أن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة وسنوات من العمل المختبري.

أكدت شركات التكنولوجيا الكبرى، مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل”، أنها تعمل باستمرار على تحسين أنظمة الأمان لتحقيق التوازن بين الفوائد المحتملة والمخاطر المرتبطة بهذه التقنيات، لكن التحدي يكمن في مدى فعالية هذه الإجراءات في مواجهة التطورات السريعة وغير المتوقعة.

شاركها.
Exit mobile version