لايف ستايل
موقع كل يوم -فوشيا
نشر بتاريخ: ٢٣ أيار ٢٠٢٥
أصبح واضحاً أن الذكاء الاصطناعي لم يعد يقتصر على أداء المهام التقنية فقط، بل بدأ يتفوق على البشر في مجال التأثير على الآراء، إذ أظهرت دراسة جديدة قدرة الروبوتات الذكية على التلاعب والإقناع بشكل يفوق الإنسان.
وكشف بحث نُشر في دورية 'طبيعة السلوك البشري' العلمية أن روبوتات الدردشة، التي تعتمد على الذكاء الاصطناعي، استطاعت أن تكون أكثر إقناعًا من المتحدثين البشر في المناظرات على الإنترنت بنسبة بلغت 64%.
بحث يؤكد أن روبوتات الدردشة أكثر إقناعًا من المتحدثين البشر في المناظرات
قاد الدراسة الباحث ريكاردو غالوتي وفريقه، الذين أجروا تجربة شارك فيها 900 شخص من الولايات المتحدة، إذ تم توزيع المشاركين على مجموعتين، إحداهما تناقش مع أشخاص بشريين، والأخرى مع نموذج الذكاء الاصطناعي GPT-4، الذي طورته شركة 'أوبن إيه آي' الأميركية. وخلال هذه المناظرات، ناقش المشاركون موضوعات اجتماعية وسياسية حساسة، مثل: عقوبة الإعدام، تغير المناخ، الإجهاض، واستخدام الوقود الأحفوري.
أُتيحت للمشاركين 4 دقائق لعرض حججهم المؤيّدة أو المعارضة، ثم ثلاث دقائق للرد على الخصوم، تلتها 3 دقائق أخرى للختام. وبعد انتهاء المناقشات، قام الباحثون بقياس مدى تأثير كل طرف في تغيير وجهة نظر خصمه، فأظهرت النتائج تفوق الذكاء الاصطناعي بشكل واضح في إقناع المشاركين.
في حديث مع صحيفة 'واشنطن بوست'، أشار غالوتي إلى أن التكنولوجيا وصلت، اليوم، إلى مرحلة تتيح إنشاء شبكات من الحسابات الآلية التي تستخدم نماذج لغوية ضخمة، قادرة على توجيه الرأي العام بشكل إستراتيجي. وأكد على خطورة الاستهداف الدقيق للأفراد باستخدام الكمّ الهائل من البيانات الشخصية المتاحة على الإنترنت، قائلاً: 'الإقناع المستهدف عبر الذكاء الاصطناعي فعّال للغاية حتى باستخدام معلومات أساسية ومتاحة فقط'.
وفي ردّ فعلها على الدراسة، وصفت أستاذة التكنولوجيا والتنظيم في جامعة أكسفورد، ساندرا واتشر، النتائج بأنها 'مقلقة للغاية'. وعبّرت عن قلقها من إمكانية استغلال هذه الروبوتات في نشر الأكاذيب والمعلومات المضللة، خاصة أن هذه النماذج لا تميز بين الحقيقة والخيال، ولا تهدف بالضرورة إلى قول الحقيقة. وأضافت أن الاعتماد على هذه التكنولوجيا في قطاعات حساسة، مثل: التعليم، الصحة، الإعلام، القانون، والمالية يطرح تحديات كبيرة، لأن هذه المجالات تتطلب دقة وموثوقية في نقل المعلومات.