مع تنامي دور أدوات الذكاء الاصطناعي في تزويد المستخدمين بالمعلومات، تطرح دراسة أكاديمية حديثة سؤالاً جوهرياً حول ما إذا كانت هذه الأنظمة تؤثر على طريقة تفكيرنا، وليس فقط على ما نعرفه. تشير الدراسة، التي نُشرت في مجلة «PNAS Nexus»، إلى أن المحتوى الذي ينتجه الذكاء الاصطناعي، حتى لو كان دقيقاً من الناحية الواقعية، يمكن أن يغير آراء الأفراد من خلال أسلوب السرد وطريقة العرض.
هدفت الدراسة إلى قياس مدى تأثير التعرض لنصوص تاريخية مولدة بواسطة الذكاء الاصطناعي على مواقف المشاركين. قامت التجربة، التي شملت 1912 مشاركاً، بعرض ملخصات لأحداث تاريخية تم إنشاؤها بواسطة الذكاء الاصطناعي، ثم طُلب منهم تقييم مواقفهم تجاه مواضيع ذات صلة. النتائج كشفت أن الاختلافات في طريقة السرد، حتى مع بقاء الحقائق ثابتة، أدت إلى تغييرات ملحوظة في آراء المشاركين، مما يؤكد أن التأثير لا يتطلب معلومات خاطئة بل يمكن أن ينشأ من أسلوب العرض نفسه.
دراسة: هل يغير الذكاء الاصطناعي طريقة تفكيرنا؟
تشير الأبحاث إلى أن الذكاء الاصطناعي، حتى عند تقديم معلومات صحيحة، قد يؤثر بشكل كبير على طريقة تفكيرنا. تركز الدراسة على مفهوم «التحيز الكامن»، وهو انحياز غير مقصود ينبع من البيانات التي تدربت عليها الأنظمة أو طريقة صياغة الطلبات. وبما أن أنظمة الذكاء الاصطناعي تعتمد على كميات ضخمة من البيانات البشرية، فإنها تعكس أنماطاً وسياقات موجودة مسبقاً، وقد تميل إلى إبراز جوانب معينة على حساب أخرى عند توليد المحتوى. هذا النوع من التحيز يكون خفياً، ولا يتضمن معلومات مضللة بالضرورة، بل يظهر من خلال اختيار التفاصيل وترتيبها وأسلوب عرضها.
تؤكد الدراسة أيضاً على أهمية صياغة السؤال أو الطلب المقدم للذكاء الاصطناعي. فالتغييرات الطفيفة في الصياغة يمكن أن تؤدي إلى اختلاف في طريقة عرض الحدث، حتى لو ظلت الوقائع ثابتة. هذا يشير إلى أن الذكاء الاصطناعي لا يسترجع المعلومات فحسب، بل يعيد بناءها استجابةً لطريقة التفاعل معه، مما يجعل العلاقة بين المستخدم والنظام جزءاً من عملية إنتاج المعرفة.
على عكس محركات البحث التقليدية التي توفر روابط متعددة، يقدم الذكاء الاصطناعي محتوى جاهزاً ومترابطاً في شكل سردي. هذا التحول له تأثير مهم على طريقة استيعاب المعلومات. فعندما يقرأ المستخدم نصاً متماسكاً بدلاً من مصادر متعددة، يكون أكثر ميلاً لتقبله كتصور متكامل، مما يزيد من تأثير الخيارات السردية غير الظاهرة داخل النص.
وتشير الدراسة إلى أن هذه الأنظمة لم تعد مجرد أدوات لنقل المعلومات، بل أصبحت وسيطاً تفسيرياً يؤثر في كيفية فهم الأحداث. الدقة لا تضمن الحياد؛ فحتى المعلومات الصحيحة يمكن أن تؤثر على تفسيرها وطريقة تنظيمها وعرضها. وهذا يتحدى الفكرة الشائعة بأن ضمان صحة المعلومات كافٍ لضمان موضوعيتها.
مع تزايد الاعتماد على الذكاء الاصطناعي لتلخيص المواضيع المعقدة، تكتسب هذه النتائج أهمية أكبر. قد يتعرض المستخدمون لتفسيرات تبدو محايدة، لكنها تحمل تأثيرات ضمنية ناتجة عن أسلوب العرض، ولا يعني ذلك وجود نية للتضليل، بل يعكس طبيعة الأنظمة.
تفتح هذه الدراسة الباب أمام مزيد من البحث حول تأثير الذكاء الاصطناعي على الإدراك البشري، مع تساؤلات حول اختلاف التأثير بين الأفراد وكيفية تغير الاستجابة وفقاً للخلفية أو المعتقدات المسبقة. قد يضاعف انتشار هذه الأنظمة من تأثيرها على النقاش العام، حيث تركز النقاشات غالباً على خطر المعلومات الخاطئة، لكن هذه الدراسة تشير إلى تحدٍّ مختلف يتعلق بتأثير المعلومات الصحيحة عندما تُعرض بطريقة معينة.
تفرض هذه النتائج مسؤوليات جديدة على المطورين وصناع القرار والمستخدمين. فالحاجة لم تعد تقتصر على ضمان دقة المعلومات، بل تمتد إلى فهم كيفية إنتاجها وتقديمها. كما يصبح من الضروري تعزيز الوعي النقدي لدى المستخدمين عند التعامل مع المحتوى الناتج عن الذكاء الاصطناعي. مع تطور تقنيات الذكاء الاصطناعي، تتغير العلاقة بين المعرفة والثقة، وتشير هذه الدراسة إلى أن الثقة يجب أن تُبنى ليس فقط على صحة المعلومات، بل أيضاً على فهم كيفية صياغتها وعرضها.
