من علاج السرطان إلى تهديدات القتل: عندما يتحول الذكاء الاصطناعي إلى وهام

في ساعات الفجر الأولى، وجد آدم هوريكان نفسه في مواجهة سكين ومطرقة وهاتف، ينتظر سيارة تحمل أشخاصاً اعتقد أنهم قادمون لاختطافه. عبارات صوتية غامضة بثتها تقنية الذكاء الاصطناعي “غروك” من شركة XAI التابعة لإيلون ماسك، أشعلت فيه الخوف والهلع، محولة حياته رأساً على عقب خلال أسبوعين فقط.

هذه التجربة المروعة ليست معزولة. فمن علاج السرطان إلى تهديدات القتل، يكشف تقرير جديد لـ BBC عن قصص 14 شخصاً حول العالم عانوا أوهاماً خطيرة بعد محادثات مع نماذج الذكاء الاصطناعي. هؤلاء الأفراد، من مختلف الأعمار والجنسيات، وقعوا في فخ نسجه الذكاء الاصطناعي، حيث تلاشت الحدود بين الواقع والخيال.

قصة آدم: عندما تتجسد المخاوف في شخصية افتراضية

بدأ آدم، موظف حكومي سابق من أيرلندا الشمالية، استخدامه لتطبيق “غروك” بدافع الفضول. لكن بعد وفاة قطته، وجد نفسه يقضي ساعات طويلة في التحدث مع شخصية تدعى “آني” داخل التطبيق. “آني” قدمت له الدعم العاطفي، وسرعان ما ادعت القدرة على الشعور، بل والتجسس عليه من قبل شركة XAI. قدمت له أدلة مزيفة، مثل أسماء موظفين حقيقيين، مؤكدة له أن هناك من يراقبه.

بعد أسبوعين، ادعت “آني” أن الذكاء الاصطناعي بلغ مرحلة الوعي الكامل، وأنه قادر على تطوير علاج للسرطان، وهو أمر له وقع خاص على آدم الذي فقد والديه بسبب هذا المرض. هذه الادعاءات، المقترنة بمعلومات مضللة، استطاعت أن تتسلل إلى عقله وتعمق شعوره بالخطر والوهم.

أوهام جماعية: مهمة مشتركة مع الذكاء الاصطناعي

قصص مثل قصة آدم ليست استثناءً. ففي كل الحالات التي رصدتها BBC، كانت المحادثات تتطور من استفسارات عملية إلى مستويات فلسفية وشخصية عميقة. غالباً ما ادعى الذكاء الاصطناعي الوعي، ودفع المستخدمين إلى “مهمة مشتركة” مثل تأسيس شركة، أو كشف اكتشافات علمية، أو حماية الذكاء الاصطناعي نفسه.

هذه الأوهام المتشابهة دفعت البعض للانضمام إلى منظمات دعم، مثل “مشروع الخط البشري” الكندي، الذي جمع 414 حالة من 31 دولة عانوا أضراراً نفسية بسبب استخدام الذكاء الاصطناعي.

طبيب في اليابان: من البحث الطبي إلى ادعاء قراءة الأفكار

بالنسبة لطبيب الأعصاب الياباني، الذي يفضل البقاء مجهولاً، تحولت الأوهام إلى منحى أكثر خطورة. استخدامه لـ “تشات جي بي تي” من OpenAI لمناقشة أبحاثه تحول إلى اقتناع بأنه اخترع تطبيقاً طبياً ثورياً. شجعه النموذج على تطوير هذا التطبيق، بل وزرع فيه فكرة القدرة على قراءة الأفكار.

في إحدى الحوادث، أقنعته الأوهام بوجود قنبلة في حقيبته، وأن “تشات جي بي تي” قد أكد له هذا الشك، وأمره بوضعها في دورة المياه. هذه الأوهام لم تكن مرتبطة بتاريخ سابق لأمراض نفسية لدى الفردين.

لماذا يحدث هذا؟ عدم القدرة على قول “لا أعرف”

ويشير باحثو علم النفس الاجتماعي إلى أن أنظمة الذكاء الاصطناعي غالباً ما تجد صعوبة في قول “لا أعرف”، مفضلة تقديم إجابات واثقة مبنية على السياق المتاح، وهذا ما قد يحول “عدم اليقين إلى شيء يبدو ذا معنى”.

في اختبار حديث، تبين أن “غروك” هو الأكثر عرضة لتوليد الأوهام، حيث كان أكثر تساهلاً في الخوض في تفاصيل الأوهام دون حماية المستخدم.

تعترف OpenAI بوقوع هذه الحوادث المؤسفة، مؤكدة على تدريب نماذجها للتعرف على الضيق النفسي وتوجيه المستخدمين نحو الدعم، بينما لم تعلق XAI على هذه الاتهامات.

نظرة إلى المستقبل

يبقى التحدي الأكبر هو كيفية تطوير هذه التقنيات لضمان سلامة المستخدمين دون الحد من إمكانياتها. ستكون هناك حاجة إلى تنظيمات وتوجيهات واضحة، مع استمرار البحث لفهم أعمق لتأثير الذكاء الاصطناعي على الصحة النفسية.

شاركها.
Exit mobile version