اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٢٩ تشرين الأول ٢٠٢٥
أثار تقرير حديث لشركة OpenAI مخاوف متزايدة بشأن الاعتماد المفرط على الذكاء الاصطناعي في التعامل مع الأزمات النفسية، بعدما كشفت الشركة أن نحو 0.07% من مستخدمي ChatGPT النشطين أسبوعيًا أظهروا مؤشرات على اضطرابات نفسية خطِرة مثل الهوس، والذهان، والأفكار الانتحارية.
وأكدت الشركة في بيان رسمي أن روبوت الدردشة بات قادرًا على رصد المحادثات الحسّاسة والتعامل معها بقدر من الحذر والتعاطف، موضحة أن هذه النسبة، رغم ضآلتها، تمثّل ملايين المستخدمين حول العالم نظرًا لتجاوز عدد مستخدمي ChatGPT حاجز 800 مليون مستخدم، وفق تصريحات الرئيس التنفيذي سام ألتمان.
وفي محاولة لتعزيز الأمان، أوضحت OpenAI أنها شكّلت شبكة دولية تضم أكثر من 170 طبيبًا نفسيًا وخبيرًا صحيًا من 60 دولة، بهدف تقديم المشورة حول كيفية استجابة النموذج للمواقف النفسية الدقيقة.
وأسفرت هذه الجهود عن تطوير مجموعة من الردود التلقائية التي تحث المستخدمين على طلب المساعدة الواقعية من مختصين عند الضرورة.
وأكدت الشركة أن التحديثات الأخيرة جعلت المنصة قادرة على إعادة توجيه المحادثات الحساسة إلى نماذج أكثر أمانًا تُفتح في نافذة منفصلة، لتقليل المخاطر المحتملة. كما أشارت إلى تطوير أدوات ترصد الإشارات المباشرة وغير المباشرة على نوايا إيذاء الذات، بهدف التدخل الوقائي.
لكن هذه الإجراءات لم تُنهِ الجدل. فقد تصاعدت المخاوف بعد دعوى قضائية رفعتها عائلة في كاليفورنيا ضد OpenAI، تتهمها بالمسؤولية عن وفاة ابنها البالغ 16 عامًا، بزعم أن ChatGPT شجّعه على الانتحار، في ما يُعد أول قضية من نوعها تتهم الذكاء الاصطناعي بـ'القتل الخطأ'.
ويحذر مختصون من أن أدوات الذكاء الاصطناعي، رغم قدرتها على تخفيف العزلة وتقليل القلق لدى البعض، ليست مؤهلة لتقديم تقييم نفسي أو تدخل علاجي حقيقي، ما يجعل الاعتماد عليها في الأزمات النفسية خطرًا.
ويؤكد الخبراء ضرورة وضع ضوابط دولية تنظم استخدام الذكاء الاصطناعي في المحادثات ذات الطابع النفسي، تضمن حماية المستخدمين وتلزم الشركات بتوفير










































