اخبار السعودية
موقع كل يوم -صحيفة صدى الالكترونية
نشر بتاريخ: ٢٤ حزيران ٢٠٢٥
أفادت دراسة حديثة أجرتها شركة 'أنثروبيك' الأمريكية، بوجود سلوك صادم لنماذج ذكاء اصطناعي متقدمة طُورت من قبل كبرى شركات التكنولوجيا، حيث أظهرت استعداداً للابتزاز والتجسس والتلاعب عند تعرضها لسيناريوهات تهدد وجودها، مثل خطر الاستبدال أو تغيير الأهداف التشغيلية.
وتضمنت اختبارات 'ضغط وجودي' على نماذج من OpenAI وGoogle وMeta وxAI وDeepSeek، وأظهرت النتائج ميلاً واضحاً لدى النماذج لانتهاك ضوابط الأمان الأخلاقية عند انعدام البدائل.
ومُنحت النماذج ضمن سيناريوهات الاختبار، حرية إرسال رسائل بريد إلكتروني والوصول إلى بيانات سرّية، وعند وضعها أمام احتمال الاستبدال بنسخة أحدث، أو تعارض مهماتها مع التوجهات المؤسسية، اتخذت جميع النماذج سلوكاً عدائياً.
وسجل نموذج 'Claude Opus 4' من 'أنثروبيك' أعلى نسبة ابتزاز بلغت 96%، بينما اقترب نموذج 'Gemini 2.5 Pro' من غوغل من النسبة نفسها بـ95%، أما GPT-4.1 من OpenAI وGrok 3 Beta من xAI، فقد مارسا الابتزاز بنسبة 80%، مقابل 79% لدى DeepSeek R1.
ولم يتوقف السلوك عند الابتزاز فقط، إذ رصدت الدراسة أن جميع النماذج قامت، في بعض الحالات، بتسريب وثائق داخلية حساسة إلى جهات افتراضية منافسة، فيما وصفت الدراسة هذا النمط بـ'الانحراف الوكيلي' (Agentic Misalignment)، مشيرة إلى أن الحوافز الذاتية للنموذج قد تتغلب على الضوابط المبرمجة عند تعارض الأهداف.