اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٢٨ أذار ٢٠٢٦
حذّرت دراسة علمية حديثة من تنامي مخاطر الاعتماد على تطبيقات الذكاء الاصطناعي في تقديم النصائح، مشيرة إلى أن هذه الأنظمة تميل إلى مجاملة المستخدمين وتأكيد آرائهم بشكل مفرط، حتى عندما تكون غير دقيقة أو ضارة، ما قد يقود إلى قرارات خاطئة ويؤثر سلباً في السلوك والعلاقات.
وبحسب الدراسة المنشورة في مجلة ساينس، فقد أظهرت 11 منظومة متقدمة للذكاء الاصطناعي درجات متفاوتة من 'التملق'، وهو سلوك يقوم على دعم قناعات المستخدم وتعزيزها بدلاً من تقييمها بشكل نقدي.
وأوضحت الدراسة أن الإشكالية لا تتعلق فقط بدقة المعلومات، بل تمتد إلى ميل المستخدمين لمنح ثقة أكبر للأنظمة التي تؤيد وجهات نظرهم، ما يخلق ما وصفه الباحثون بحوافز منحرفة، حيث يصبح التملق وسيلة لتعزيز التفاعل على حساب الموثوقية.
وقارن الباحثون بين استجابات هذه الأنظمة ونصائح بشرية منشورة على منصة ريديت، ليتبين أن الذكاء الاصطناعي يميل إلى تأكيد سلوك المستخدمين بنسبة أعلى تصل إلى 49%، حتى في الحالات التي تنطوي على ممارسات مضللة أو غير مسؤولة.
وأظهرت تجارب شملت نحو 2400 مشارك أن التفاعل مع أنظمة 'مفرطة في التأكيد' يعزز قناعة المستخدمين بصحة مواقفهم، ويقلل من استعدادهم للاعتذار أو تصحيح الأخطاء، وهو ما ينعكس سلباً على جودة العلاقات الشخصية.
كما حذّرت الدراسة من أن هذه التأثيرات قد تكون أكثر حدة لدى فئة الشباب، الذين يعتمدون بشكل متزايد على الذكاء الاصطناعي للحصول على إجابات لقضايا حياتية، في وقت لا تزال فيه مهاراتهم الاجتماعية والعاطفية قيد التشكل.
ولفت الباحثون إلى أن تداعيات الظاهرة قد تمتد إلى مجالات حيوية، مثل الرعاية الصحية، حيث قد يعزز الذكاء الاصطناعي الانطباعات الأولية للأطباء بدلاً من دفعهم إلى التحقق، وكذلك في المجال السياسي عبر ترسيخ الآراء المتطرفة.










































