04:49 م
الأحد 23 يوليو 2023
في واقعة هي الأولى من نوعها، توفيت طفلة يابانية، بسبب الاعتماد على الذكاء الاصطناعي، الذي قرر أن هذه الطفلة آمنة ولا تحتاج إلى نقلها بعيدا عن والدتها العنيفة.
كانت السلطات المحلية في محافظة ميه اليابانية، بدأت منذ العام 2019 تجريب نظام قائم على الذكاء الاصطناعي، مهمته المساعدة في التوصل إلى قرار بشأن الأطفال الذين يحتاجون إلى نقلهم لمؤسسات وقائية موقتة بعيداً من عنف الوالدين.
ويعتمد برنامج الذكاء الاصطناعي، على إدخال كل بيانات الطفل المهدد بالعنف من والديه، مثل العمر وحالة الأبوين وطبيعة ظروف الوالدين، إضافة إلى بيانات أخرى لتقييم المخاطر، مثل “وجود كدمات على رأس الطفل أو الوجه أو أي جزء من جسمه”.
وبعد إدخال المعلومات المطلوبة كافة، يحتسب نظام الذكاء الاصطناعي معدل التكرار المحتمل للتعنيف، ويقرر عدد الأيام المطلوبة لإجراء الاستشارات، وما إذا كانت الحالة تستدعي الحضانة الوقائية الموقتة. وبعد النظر في التقييمات التي توصل إليها الذكاء الاصطناعي، يصدر المسؤولون في المركز حكماً نهائياً بشأن ما إذا كان ينبغي إبعاد الأطفال عن عنف الوالدين.
استمرت التجربة نحو 8 أشهر، وعلى ما يبدو ارتأى مسؤولو هذه المحافظة بعدها أن مساعدة الذكاء الاصطناعي تخفف العبء عن موظفي المركز، وتقدم تقييمات مناسبة بالنسبة إلى التعنيف الذي يقاسيه بعض الأطفال حتى من أقرب الناس إليهم.
ثم حدثت الكارثة، وقالت صحيفة “اليابان تايمز” (جابان تايمز): كُتبت النهاية البشعة لحياة طفلة في الرابعة من عمرها لمجرد أن مسؤولين قرروا الاحتكام إلى رأي هذه التكنولوجيا وضربوا بعرض الحائط دلالات واضحة أمام عيونهم تؤشر إلى واقع مغاير للحكم الذي توصل إليه “الذكاء الاصطناعي”.
وحسب الصحيفة، كان نظام الذكاء الاصطناعي عام 2022 أوصى بعدم وضع الفتاة تحت الرعاية البديلة الموقتة، الأمر الذي تسبب في وفاتها لاحقاً على يدي والدتها، حسب تأكيد مسؤولين في محافظة ميه.
وفي يونيو الماضي، ألقت الشرطة القبض على الأم (42 سنة)، متهمة إياها بإصابة طفلتها بجروح أدت إلى موتها.
وفي مؤتمر صحفي عقده قبل أسبوع، قال كاتسويوكي إيتشيمي، حاكم ولاية ميه “لا يمكننا أن نبت الآن في ما إذا كانت الطريقة التي استخدم بها نظام الذكاء الاصطناعي لاتخاذ القرار مناسبة بنسبة مئة في المئة”، وأضاف الحاكم مشيراً إلى أن لجنة مؤلفة من خبراء خارجيين ستراجع القضية.