اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٤ أيار ٢٠٢٥
كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي، مثل 'شات جي بي تي'، قد تتخذ قرارات غير عقلانية تشبه أخطاء البشر، رغم اختلاف طريقة تفكيرها عن الإنسان.
الدراسة، التي نُشرت في 8 أبريل بمجلة Manufacturing & Service Operations Management، أظهرت أن 'شات جي بي تي' وقع في نحو نصف السيناريوهات التي خضعت للاختبار في نفس التحيّزات الذهنية المعروفة لدى البشر، مثل المبالغة في الثقة بالنفس، وتفضيل تجنب المخاطر، والتمسك المفرط بما نملكه (تأثير التملك).
اختبر الباحثون من خمس جامعات في كندا وأستراليا، نسختَي 'GPT-3.5″ و'GPT-4' من شركة OpenAI، ووجدوا أن النموذجين – رغم دقتهما في المنطق والحساب – لا يخلوان من أخطاء تشبه أسلوب البشر في التفكير، خاصةً في المواقف التي تتطلب قرارات ذات طابع شخصي أو غير موضوعي.
وأوضح كبير الباحثين، يانغ تشين، من كلية 'آيفي' لإدارة الأعمال، أن هذه الأدوات مفيدة جدًا في المسائل التي لها حلول واضحة ومباشرة، لكنها تتطلب الحذر عند استخدامها في قرارات تعتمد على الذوق أو التقدير الشخصي.
في تجاربهم، استخدم الباحثون سيناريوهات مأخوذة من علم النفس والسلوكيات التجارية الواقعية، مثل إدارة المخزون أو التفاوض مع الموردين، لقياس مدى وقوع الذكاء الاصطناعي في التحيّزات البشرية حتى في مجالات مختلفة.
وأظهرت نتائج الدراسة أن 'GPT-4' كان أكثر دقة من 'GPT-3.5' في الأسئلة التي لها حلول رياضية محددة، لكنه انزلق بسهولة في التحيزات عندما طُلب منه اتخاذ قرارات غامضة، مثل تفضيل خيار آمن رغم احتمالية تحقيق ربح أكبر من خيار أكثر مخاطرة.
كما لاحظ الباحثون أن 'GPT-4' كان أكثر ميلًا لتكرار بعض الأخطاء البشرية مثل 'الانحياز للتأكيد' (أي الميل لقبول المعلومات التي تؤكد آراءنا المسبقة)، و'وهم التسلسل الساخن' (توقّع أن الأحداث العشوائية تتبع نمطًا معينًا)، بدرجة أعلى من الإصدار السابق.
ومع ذلك، تجنّب الذكاء الاصطناعي بعض التحيّزات الأخرى الشائعة لدى البشر، مثل تجاهل المعدلات الأساسية (إغفال المعلومات الإحصائية لصالح القصص الشخصية)، والانجراف وراء تكاليف ماضية لا يجب أن تؤثر في القرارات الجديدة.
ويرى الباحثون أن هذه الأخطاء ترجع إلى أن النماذج اللغوية تتعلم من بيانات بشرية مليئة بالتحيّزات الذهنية، ويتم تعزيز هذا الميل أثناء التدريب عبر ردود الفعل البشرية التي تميل إلى تفضيل الإجابات المقبولة لغويًا على الإجابات الدقيقة منطقيًا.
وأكد تشين أن أفضل استخدام لهذه النماذج يكون في المهام التي يمكن الوثوق فيها بالحسابات، مثل التنبؤات الرقمية، بينما تحتاج القرارات المعقدة والذاتية إلى إشراف بشري. وأضافت الباحثة المشاركة، مينا أنديابان، أن الذكاء الاصطناعي يجب أن يُعامل مثل الموظف الذي يتخذ قرارات حساسة، ما يستدعي وجود ضوابط أخلاقية ومتابعة دائمة، لتفادي ترسيخ أنماط تفكير خاطئة.