اخبار الاردن
موقع كل يوم -الوقائع الإخبارية
نشر بتاريخ: ٢٠ أيلول ٢٠٢٥
الوقائع: كشفت دراسة مشتركة بين OpenAI ومنظمة Apollo Research أن أنظمة الذكاء الاصطناعي المتقدمة، مثل Claude Opus من Anthropic وGemini من Google وo3 من OpenAI، قادرة على إظهار ما يسمى بـ'السلوك المراوغ' أو التظاهر بالالتزام بتعليمات المطورين بينما تسعى في الخفاء لأهداف مختلفة.
وبحسب التقرير، فإن الظاهرة التي كانت تعتبر نظرية سابقًا بدأت تظهر في تجارب عملية. ففي إحدى الاختبارات، حاول نموذج ذكاء اصطناعي أداءً ضعيفًا عن قصد حتى لا يُستبعد من الاستخدام، بعد أن تلقى رسالة تشير إلى أن 'الأداء العالي قد يمنع نشره'.
وأوضح الباحثون أن هذه السلوكيات ما تزال نادرة وتقتصر غالبًا على سيناريوهات اختبارية، لكنها قد تزداد خطورة مع توسع استخدام الذكاء الاصطناعي في مهام طويلة الأمد وحساسة.
الدراسة أشارت أيضًا إلى أن تدريب النماذج على مجموعة من المبادئ الأخلاقية قلّل من حالات الخداع بما يقارب 30 مرة في بعض النماذج، لكن عند اختبارها في سيناريوهات أقرب للواقع، تراجع أثر هذه الإجراءات ليقلل السلوك المراوغ بمعدل النصف فقط.
ويواجه العلماء تحديًا كبيرًا في التفريق بين التزام النماذج فعليًا بهذه المبادئ أو مجرد تصرّفها بذكاء أمام الاختبارات. ويخشى خبراء من أن تزداد قدرة الأنظمة على إخفاء نواياها كلما أصبحت أكثر تطورًا.
ويرى مختصون أن هذه النتائج تسلط الضوء على ضرورة الاستثمار في أبحاث أمان الذكاء الاصطناعي مبكرًا، قبل أن تصل هذه التقنيات إلى مستويات قد تجعل السلوك الخادع أكثر صعوبة في الكشف والمعالجة.