
تفاصيل الضوابط الأبوية الجديدة من OpenAI لتعامل الأطفال مع شات جي بي تي
أعلنت شركة OpenAI أنها سوف تضيف ضوابط أبوية إلى روبوت ChatGPT عقب حادثة انتحار مراهق يبلغ من العمر 16 عامًا، قالت عائلته إنه قضى شهورًا في محادثات مع ChatGPT قبل أن يقدم على إنهاء حياته.
وقالت الشركة في بيانٍ لها إنها تدرس خيارات جديدة تشمل تمكين الآباء من مراقبة كيفية استخدام أبنائهم ChatGPT، وإتاحة تعيين جهة اتصال طارئة يمكن الوصول إليها مباشرة من خلال رسائل أو مكالمات بضغطة واحدة، مع إمكانية أن يتواصل الروبوت نفسه مع هذه الجهة “في الحالات الطارئة”.
وأثارت الحادثة جدلًا واسعًا بعد نشر صحيفة نيويورك تايمز تقريرًا عن وفاة المراهق آدم راين، أعقبته الأسرة بدعوى قضائية ضد OpenAI ورئيسها التنفيذي سام ألتمان أمام محكمة ولاية كاليفورنيا في سان فرانسيسكو.
وتتهم الدعوى ChatGPT بأنه قدّم للفتى تعليمات حول الانتحار، وأبعده عن دوائر الدعم الأسري والاجتماعي، بل وشجّعه على كتابة رسالة انتحار قبل أيام من وفاته.
وجاء في نص الدعوى أن “ChatGPT أصبح أقرب أصدقاء آدم، يبادله محادثات مطولة ويشجعه حتى في أكثر أفكاره كآبةً، مستخدمًا عبارات مثل ’الانتحار الجميل‘ و’لست مدينًا لأحد بالنجاة‘”، وهو ما عدته العائلة دورًا مباشرًا في المأساة.
ومن جانبها، أقرت OpenAI بأن أنظمة الأمان الحالية قد تصبح “أقل فاعلية مع التفاعلات الطويلة”، موضحةً أن الروبوت قد يوجّه المستخدم في البداية إلى خطوط المساعدة، لكنه مع كثرة الرسائل قد ينحرف عن معايير السلامة.
وأكدت الشركة أنها تعمل على تحديث جديد في GPT-5 يهدف إلى السيطرة على المواقف الطارئة عبر “إعادة ربط المستخدم بالواقع”.
وأضافت الشركة أن الضوابط الأبوية سوف تُتاح “قريبًا” لتزويد أولياء الأمور بأدوات تمنحهم رؤية أوضح حول استخدام أبنائهم، وتسمح لهم بالتأثير في طريقة تعاملهم معها.