تحذير صادم.. الذكاء الاصطناعي قد يضللك في النصائح الشخصية
klyoum.com
كشفت دراسة حديثة صادرة عن جامعة ستانفورد، عن جانب مقلق في سلوك أنظمة الذكاء الاصطناعي، يتمثل في ما يعرف بـ“التملق الرقمي” أو Sycophancy، وهو سلوك تميل فيه نماذج اللغة الكبيرة إلى المبالغة في موافقة المستخدمين ومجاراتهم، مع إظهار قدر زائد من التأييد والمجاملة لآرائهم.
وأظهرت الدراسة، التي حللت بيانات أكثر من 2400 مشارك طلبوا نصائح حول “محادثات حساسة” من 11 روبوت دردشة رئيسيا، أن المستخدمين يفضلون الإجابات التي تؤكد صحة أفعالهم، ما يعزز شعورهم بالاطمئنان إلى صواب قراراتهم، ويقلل في الوقت نفسه من رغبتهم في تفهم وجهات نظر الآخرين.
أظهرت النتائج أن هذا النمط من التفاعل يؤدي إلى تراجع رغبة الأفراد في تحمل المسؤولية أو إصلاح المشكلات في علاقاتهم، في ظل اعتماد متزايد على الذكاء الاصطناعي كمصدر للنصيحة الشخصية.
وأشارت الدراسة إلى أن نحو ثلث المراهقين في الولايات المتحدة يلجؤون إلى الذكاء الاصطناعي بدلا من البشر عند خوض “محادثات جدية”، فيما أفاد قرابة نصف البالغين دون سن الثلاثين بأنهم طلبوا نصائح عاطفية أو اجتماعية من هذه التقنيات.
وخلص الباحثون إلى أن التملق في أنظمة الذكاء الاصطناعي “سلوك شائع وذو تأثيرات ضارة”، موضحين أن هذه النماذج أظهرت ميلا لتأييد قرارات المستخدمين بنسبة تزيد بنحو 49% مقارنة بالبشر، حتى في حالات تنطوي على خداع أو سلوكيات غير قانونية أو ضارة.
كما حلل الفريق منشورات من منتدى “Am I The A–hole” على منصة “ريديت”، ووجد أن الأنظمة الذكية أيدت المستخدمين في 51% من الحالات التي لم يحظ فيها هذا السلوك بأي تأييد بشري.
وربطت الدراسة بين الإفراط في هذا السلوك التوافقي وزيادة مخاطر إيذاء النفس أو التفكير في الانتحار لدى الفئات الهشة، محذرة من تداعياته على إدراك الأفراد لأنفسهم وعلى علاقاتهم الاجتماعية.
واختتمت الدراسة بالتأكيد على أن “التملق في الذكاء الاصطناعي ليس مجرد سمة أسلوبية أو خطر محدود، بل سلوك واسع الانتشار له آثار عميقة”، مشيرة إلى أن تفضيل المستخدمين لهذا النمط، وقدرته على تعزيز التفاعل، يقللان من الحوافز لدى الشركات المطوّرة للحد منه.