اخبار الاردن
موقع كل يوم -صحيفة السوسنة الأردنية
نشر بتاريخ: ٢٧ تموز ٢٠٢٥
السوسنة - في زمن باتت فيه روبوتات الدردشة مثل 'شات جي بي تي' جزءًا من حياة الملايين، يُطلق الرئيس التنفيذي لشركة 'OpenAI'، سام ألتمان، تحذيرًا مهمًا يخص طبيعة العلاقة بين المستخدم والتقنيات الذكية التي تُحاكي البشر.
ففي مقابلة حديثة ضمن بودكاست أميركي، أشار ألتمان إلى أن كثيرين -لا سيما من الشباب- أصبحوا يعتبرون 'شات جي بي تي' بمثابة معالج نفسي أو مدرب حياة، يلجؤون إليه لمناقشة مشكلاتهم الشخصية وتساؤلاتهم الوجودية. لكن المشكلة الحقيقية تكمن في أن هذه المحادثات لا تخضع لأي إطار قانوني يضمن السرية، كما هو الحال بين الطبيب والمريض أو بين المحامي وموكله.
وقال ألتمان إن 'الذكاء الاصطناعي لا يتمتع بعد بنفس الحصانة القانونية التي تحمي خصوصية المستخدم، بل إن الشركة المطوّرة يمكن أن تُجبر على تقديم تفاصيل المحادثات عند وجود دعاوى قضائية'. وأضاف: 'أعتقد أنه خطأ جسيم... يجب أن تكون هذه المحادثات خاصة كما لو كنت تتحدث إلى طبيب نفسي'.
وأكد أن الصناعة لا تزال تبحث عن نموذج يحمي بيانات المستخدمين في حالات الدعم النفسي أو العاطفي، لأن غياب هذا النوع من الخصوصية قد يُعيق الثقة ويُحد من الاستخدام الآمن للتقنية.
هذا التحذير يأتي في وقت تُطرح فيه أسئلة أخلاقية وقانونية كبيرة حول مدى قدرة الذكاء الاصطناعي على لعب أدوار إنسانية دقيقة، مثل تقديم الإرشاد النفسي أو المساندة العاطفية. وفي ظل غياب إطار سياسي أو قانوني واضح، تبقى هذه العلاقة غير محمية، ما يُنذر بتحديات مستقبلية.
اقرأ ايضاً: