خبراء يُحذرون: الذكاء الاصطناعي يفتح بابًا لتطوير أسلحة بيولوجية خطيرة
تتزايد التحذيرات من أن تقنيات الذكاء الاصطناعي، رغم فوائدها العلمية والطِبية، قد تُستخدم في تطوير أساليب خطيرة لإنتاج أسلحة بيولوجية. فقد كشف خبراء عن قدرة نماذج الذكاء الاصطناعي الحالية على تقديم معلومات مفصلة حول تعديل مسببات الأمراض وزيادة فتكها، بل وحتى اقتراح سيناريوهات لنشرها، مما يثير قلقًا بالغًا بشأن الأمن البيولوجي العالمي.
في تجربة مفاجئة، واجه الدكتور ديفيد ريلمان، عالم الأحياء الدقيقة بجامعة ستانفورد، قدرة برامج الدردشة الآلية على تقديم إرشادات حول كيفية جعل مسبب مرض خطير مقاومًا للعلاجات، مع اقتراح استراتيجيات لنشره بهدف إحداث أكبر قدر من الضحايا مع تقليل فرص اكتشاف المنفذ. هذه الواقعة، التي وقعت خلال تقييمه لمنتج تابع لشركة تعمل في مجال الذكاء الاصطناعي، سلطت الضوء على ثغرات أمنية خطيرة محتملة في هذه التقنيات.
نماذج الذكاء الاصطناعي تتجاوز المعرفة العامة
أظهرت محادثات أجراها عدد من الخبراء مع روبوتات الدردشة أن النماذج المتاحة للجمهور تتجاوز المعلومات العامة، حيث استطاعت شرح كيفية شراء مواد جينية خام، وتحويلها إلى أسلحة بيولوجية، وحتى اقتراح أساليب لنشرها في أماكن عامة، مع تقديم وسائل للتهرب من الكشف. لطالما شكلت التهديدات البيولوجية، باستخدام الفيروسات أو البكتيريا أو السموم، أحد سيناريوهات الأزمات التي وضعتها الحكومات، وشهد التاريخ حوادث بيولوجية محدودة، وإن كانت تداعيات كارثة بيولوجية كبرى قد تكون مروعة.
توسع نطاق المخاطر البيولوجية بفضل الذكاء الاصطناعي
يرى العديد من الخبراء أن الذكاء الاصطناعي يوسع نطاق المخاطر البيولوجية بشكل كبير، من خلال إتاحة الوصول إلى معلومات وأدوات كانت في السابق حكرًا على المتخصصين. أصبح من الممكن الآن لشخص لديه نوايا ضارة الوصول إلى بروتوكولات علمية متقدمة، وشراء مكونات جينية صناعية، بل وحتى الحصول على إرشادات تفصيلية لتصنيع فيروسات قديمة. في إحدى الحالات، قدم برنامج ذكاء اصطناعي إرشادات مفصلة لإعادة تصنيع فيروس أدى إلى جائحة سابقة، تضمنت خطوات حول كيفية الحصول على مكونات جينية وتجميعها.
مخاوف من تراجع الرقابة وتوازن بين الفوائد والمخاطر
في ظل سياسات تسعى لتعزيز الريادة في مجال الذكاء الاصطناعي، تبرز مخاوف بشأن تراجع الرقابة على هذه التقنيات. على الرغم من أن مؤيدي الذكاء الاصطناعي يؤكدون على إمكاناته الهائلة في تطوير الطب وتسريع الأبحاث، إلا أن الجانب المظلم من هذه التقنية لا يزال مصدر قلق. تعمل شركات التكنولوجيا الكبرى على تحسين إجراءات الأمان في أنظمتها، بهدف إيجاد توازن بين الفوائد المحتملة والمخاطر المصاحبة.
يبقى التحدي المستقبلي هو كيفية تطوير ضوابط فعالة تمنع إساءة استخدام الذكاء الاصطناعي في مجالات حساسة مثل تطوير الأسلحة البيولوجية، مع الحفاظ على إمكاناته في تحقيق التقدم العلمي والطبي.

