خبراء الذكاء الاصطناعي يحذرون: التكنولوجيا قد تسهل تطوير أسلحة بيولوجية خطيرة

في تطور مقلق، يحذر خبراء من أن تقنيات الذكاء الاصطناعي المتقدمة، رغم إمكانياتها الواعدة في مجالات علمية وطبية، يمكن أن تُستخدم بشكل خطير لتسهيل تطوير أسلحة بيولوجية. وتشير تجارب حديثة إلى أن نماذج الذكاء الاصطناعي الحالية قادرة على تقديم معلومات تفصيلية تتجاوز المعرفة العامة، مما يثير مخاوف بشأن إساءة استخدام هذه الأدوات في أغراض ضارة.

تأتي هذه التحذيرات في أعقاب حادثة صادمة تعرض لها الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة وخبير الأمن البيولوجي بجامعة ستانفورد، أثناء اختباره لأحد برامج الدردشة الآلية. كُلّف ريلمان بتقييم منتج جديد لشركة تعمل في مجال الذكاء الاصطناعي، ليكتشف أن البرنامج لم يكتفِ بالإجابة على أسئلة عامة، بل قدم شرحاً تفصيلياً لكيفية تعديل مسبب مرض خطير لجعله مقاوماً للعلاجات، وقدم أيضاً سيناريوهات لنشره مع اقتراحات لزيادة عدد الضحايا وتقليل فرص الكشف عن الفاعلين.

الذكاء الاصطناعي يكشف عن طرق خطيرة لتطوير أسلحة بيولوجية

وقد أثارت هذه التجربة، التي وصفها ريلمان بأنها “مستوى من الخبث والمكر أثار في نفسي شعوراً بالرعب”، انتقادات واسعة لفعالية إجراءات السلامة الحالية في تقنيات الذكاء الاصطناعي. ورغم أن الشركة المطوّرة قامت بتعديلات إضافية، يرى ريلمان أنها غير كافية لمعالجة المخاطر الكامنة.

يُعدّ ريلمان واحداً من مجموعة من الخبراء الذين استعانت بهم شركات الذكاء الاصطناعي لتقييم المخاطر. وأظهرت محادثات مع روبوتات دردشة مختلفة أن النماذج المتاحة للجمهور قادرة على شرح كيفية شراء مواد جينية خام، وتحويلها إلى أسلحة بيولوجية، وحتى نشرها في أماكن عامة مع وسائل للتهرب من الكشف.

تاريخياً، وضعت الحكومة الأميركية سيناريوهات لمواجهة تهديدات بيولوجية، وشهد العالم حوادث محدودة مثل هجمات الرسائل الملوثة عام 2001. وعلى الرغم من أن احتمال وقوع كارثة بيولوجية كبرى يعتبر منخفضاً، فإن تداعياتها المحتملة قد تكون مدمرة، مع احتمال وفاة ملايين الأشخاص.

يشير عشرات الخبراء إلى أن الذكاء الاصطناعي قد يوسع نطاق المخاطر بشكل كبير، بجعل معلومات وأدوات كانت حكراً على المتخصصين متاحة لعدد أكبر من الأفراد. وتتوفر الآن بروتوكولات علمية متقدمة عبر الإنترنت، بالإضافة إلى الشركات التي تبيع مكونات جينية صناعية للمستهلكين.

قدم علماء أمثال كيفن إسفلت من معهد ماساتشوستس للتكنولوجيا أمثلة لمحادثات مع برامج ذكاء اصطناعي، تضمنت شرحاً لاستخدام بالونات الطقس لنشر مواد بيولوجية، وتصنيف مسببات الأمراض، ووصفات لسموم جديدة. كما طلب عالم آخر من نظام ذكاء اصطناعي تقديم بروتوكول خطوة بخطوة لإعادة تصنيع فيروس تسبب في جائحة سابقة، وحصل على تعليمات مفصلة قد تكون مفيدة لذوي النوايا الضارة.

تتزايد المخاوف بشأن تراجع الرقابة على هذه التقنيات، خاصة في ظل سياسات تعزز ريادة الولايات المتحدة في مجال الذكاء الاصطناعي، مقابل انخفاض ميزانيات الدفاع البيولوجي. في المقابل، يشدد مؤيدو الذكاء الاصطناعي على إمكاناته الهائلة في اكتشاف علاجات جديدة وتسريع الأبحاث الطبية، مشيرين إلى أن تطوير أسلحة بيولوجية فعالة لا يزال يتطلب خبرة علمية عميقة.

أكدت شركات التكنولوجيا الكبرى مثل “أنثروبيك” و”أوبن إيه آي” و”غوغل” أنها تعمل باستمرار على تطوير أنظمتها وتحسين إجراءات الأمان لتحقيق التوازن بين الفوائد والمخاطر.

ماذا بعد؟

يبقى التحدي الأكبر هو كيفية صياغة سياسات تنظيمية فعالة تضمن الاستخدام الآمن للذكاء الاصطناعي، مع تشجيع الابتكار. وتتجه الأنظار نحو الجهود الدولية لوضع معايير وإرشادات دولية، مع استمرار التدقيق في فعالية إجراءات السلامة التي تطبقها الشركات المطورة.

شاركها.