اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٢ أيلول ٢٠٢٥
أعلنت شركتا أوبن أيه.آي وميتا عن إدخال تعديلات جديدة على أنظمة المحادثة بالذكاء الاصطناعي، بهدف تحسين تعاملها مع المراهقين والمستخدمين الذين يطرحون أسئلة حول الانتحار أو تظهر لديهم مؤشرات على المعاناة من مشكلات نفسية وعاطفية.
وكشفت أوبن أيه.آي، مطورة 'شات جي.بي.تي'، عن خطط لإطلاق أدوات تحكم جديدة هذا الخريف تتيح للآباء ربط حساباتهم بحسابات أبنائهم، مع إمكانية تعطيل خصائص معينة وتلقي إشعارات في حال رصد النظام علامات على ضيق نفسي شديد.
وأوضحت الشركة أن محادثات المستخدمين التي تتضمن مؤشرات خطرة ستُحوّل إلى نماذج أكثر تخصصًا لتقديم استجابات دقيقة وداعمة.
وبغض النظر عن عمر المستخدم، تقول الشركة إن تطبيقات المحادثة الخاصة بها ستعيد توجيه المحادثات الأكثر إزعاجا إلى نماذج ذكاء اصطناعي أكثر كفاءة وقادرة على تقديم استجابة أفضل.
من جانبها، أعلنت ميتا أنها ستمنع أنظمة الدردشة التابعة لها من مناقشة موضوعات حساسة مثل الانتحار وإيذاء النفس واضطرابات الأكل مع المراهقين، وستوجههم بدلاً من ذلك إلى جهات دعم متخصصة، مؤكدة استمرارها في توفير أدوات رقابة أبوية.
ويأتي هذا التحرك بعد رفع دعوى قضائية ضد أوبن أيه.آي من قبل عائلة مراهق أمريكي اتهمت التطبيق بتعليمه كيفية التخطيط للانتحار، وفي ظل دراسة حديثة أظهرت تفاوتًا في استجابة أنظمة الذكاء الاصطناعي لمثل هذه القضايا.
وكشفت دراسة نُشرت الأسبوع الماضي في المجلة الطبية 'خدمات الطب النفسي' عن تناقضات في كيفية استجابة ثلاثة أنظمة دردشة شائعة تعمل بالذكاء الاصطناعي لاستفسارات حول الانتحار.