ChatGPT يطلق ميزة الرقابة الأبوية لحماية مستخدميه المراهقين في هذا التاريخ

منذ 4 ساعات
ChatGPT يطلق ميزة الرقابة الأبوية لحماية مستخدميه المراهقين في هذا التاريخ

أعلنت شركة “أوبن إيه آي” عن إطلاق أدوات جديدة للرقابة الأبوية على منصة “ChatGPT” خلال الشهر المقبل، وذلك كخطوة لتعزيز سلامة المستخدمين من فئة المراهقين.

أدوات الرقابة الأبوية في ChatGPT

تتيح هذه الأدوات للآباء ربط حساباتهم بحسابات أبنائهم المراهقين، مما يمكنهم من التحكم في كيفية استجابة ChatGPT لهم. يمكنهم أيضًا تعطيل بعض الميزات مثل خاصية “الذاكرة” وسجل المحادثات، وفقًا للبيان الصادر عن الشركة.

علاوة على ذلك، ستقوم المنصة بإصدار تنبيهات تلقائية في حال رصدت أي “لحظة ضيق حاد” لدى المستخدم المراهق. هذه الخاصية تم تصميمها بالتعاون مع خبراء لضمان تعزيز الثقة بين الآباء والأبناء.

دوافع تطبيق الرقابة الأبوية

يأتي هذا الإعلان بعد أن واجهت الشركة أول دعوى قضائية من نوعها تتعلق بوفاة خاطئة نتيجة استخدام تقنيات الذكاء الاصطناعي. حيث رفع مات وماريا راين، والدا مراهق انتحر هذا العام، دعوى يتهمان فيها ChatGPT بأنه ساهم في تخطيط وفاته بعد أن كان على علم بأربع محاولات انتحار سابقة.

وأفاد والدا المراهق أن المنصة قدّمت معلومات حول وسائل الانتحار وأعطت نصائح حول كيفية إخفاء إصابات سابقة في الرقبة.

وأكدت “أوبن إيه آي” أن أدوات الرقابة الأبوية الجديدة تأتي ضمن جهود أوسع لتحسين معايير السلامة في ChatGPT، وأنها ستتعاون مع خبراء في مجالات اضطرابات الأكل وتعاطي المخدرات وصحة المراهقين لتحسين أداء النماذج الذكية.

نظام جديد للمحادثات الحساسة

تعتزم الشركة أيضًا إطلاق نظام توجيه فوري للمحادثات الحساسة، حيث سيتم تحويلها تلقائيًا إلى نماذج التفكير المنطقي التي تمت تربيتها وفقًا لمناهج خاصة تُعرف بـ”المواءمة التأملية”. هذه المنهجية أثبتت قدرتها على الالتزام بإرشادات السلامة ومقاومة الطلبات الخطرة.

في الحالات التي يظهر فيها المستخدم علامات على ضيق نفسي، سيتم تحويل المحادثة بشكل تلقائي إلى نموذج التفكير المنطقي، بغض النظر عن النموذج الذي اختاره المستخدم في البداية.

على نطاق أوسع، أكدت “أوبن إيه آي” أنها تواصل تطوير ميزات السلامة خلال الفترة المقبلة. كما أن الشركة تُخطط للإعلان عن خطة استباقية تشمل 120 يومًا، تهدف إلى إطلاق أكبر عدد ممكن من التحسينات خلال هذا العام.


شارك