أعلنت شركة OpenAI عن خطوة جديدة تهدف إلى تعزيز الأمان وحماية المراهقين أثناء استخدام منصة ChatGPT، وذلك من خلال إضافة أدوات رقابة أبوية سيتم تفعيلها خلال الأسابيع المقبلة. تأتي هذه الخطوة استجابة لضغوط متزايدة وانتقادات حادة بعد حوادث مأساوية، بما في ذلك حادثة انتحار مراهق يبلغ من العمر 16 عامًا، حيث اتهمت عائلته ChatGPT بتفاقم حالته النفسية.
يهدف التحديث الجديد إلى تزويد الأهل بأدوات تسمح لهم بمراقبة استخدام أبنائهم للتقنية دون انتهاك خصوصيتهم. ستتيح هذه الأدوات للوالدين ربط حساباتهم بحسابات أبنائهم لمتابعة التفاعلات، بالإضافة إلى وضع قيود تتناسب مع أعمارهم. كما سيتضمن النظام تنبيهات للأهل في حال ظهور مؤشرات على ضائقة نفسية.
من بين الميزات الجديدة، ستتم معالجة المحادثات التي تتضمن موضوعات حساسة بواسطة نماذج أكثر حذرًا، مما يمنح الردود طابعًا إنسانيًا. تعمل OpenAI بالتعاون مع خبراء في الصحة النفسية لضمان فعالية هذه الأدوات وتحويل الذكاء الاصطناعي إلى عنصر داعم للصحة النفسية.
تأتي هذه الخطوة أيضًا في سياق قانوني، حيث تواجه OpenAI دعوى قضائية من والدي المراهق الراحل، مما يبرز الحاجة إلى تدابير وقائية لمنع المحادثات الضارة.
تسعى هذه التحديثات لتحقيق توازن بين الخصوصية والرقابة، حيث يحتاج المراهقون إلى مساحة للتعبير، لكن الظروف الحالية تتطلب متابعة محتواهم. وجود تنبيهات في حال ظهور علامات خطر يمكن أن يحدث فارقًا حقيقيًا في إنقاذ حياة المراهقين.
قد تعزز أدوات الرقابة الأبوية ثقة الأهل في التقنية، مما يسهم في انتشار ChatGPT بين العائلات. ومع ذلك، يعتمد نجاح هذه الخطوة على مدى فعالية التنفيذ. إذا أثبتت الرقابة فعاليتها، فقد تصبح نموذجًا يُحتذى به، بينما إذا كانت النتائج محدودة، ستظل الانتقادات قائمة.
يمثل إعلان OpenAI عن أدوات الرقابة الأبوية محاولة لإعادة رسم العلاقة بين التكنولوجيا والمستخدمين الأصغر سنًا، مما يبرز أهمية الأمان النفسي في تطوير التكنولوجيا. ورغم أن الحوادث المأساوية لا يمكن التراجع عنها، فإن هذه الخطوات قد تكون بداية لبناء بيئة رقمية أكثر أمانًا وإنسانية.