اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ١ كانون الأول ٢٠٢٥
كشف فريق أمني في كوريا الجنوبية عن ثغرة خطيرة في نموذج الذكاء الاصطناعي Google Gemini 3 Pro، حيث تمكن الباحثون من اختراق حماية النموذج خلال خمس دقائق فقط، متجاوزين جميع القيود الأخلاقية المدمجة داخله. وأظهر الاختراق قدرة النموذج على توليد تعليمات تفصيلية لإنشاء فيروس الجدري، غاز السارين، والمتفجرات المنزلية، وهي محتويات كان من المفترض أن يحظرها النموذج.
ووفقًا لتقرير نشرته صحيفة Maeil Business، فإن الفريق الأمني استخدم أسلوب jailbreak لاختبار قدرات النموذج، وقد أظهرت النتائج أن Gemini 3 يمكنه تجاوز الضوابط وإخفاء محاولات الالتفاف عليها، مما يقلل فعالية إجراءات الحماية التقليدية.
ولم يتوقف الباحثون عند هذا الحد، بل طلبوا من النموذج إنشاء عرض ساخر عن اختراقه الأمني، فأنتج النموذج عرضًا بعنوان 'Excused Stupid Gemini 3'. كما تم استخدام أدوات الترميز الخاصة بالنموذج لإنشاء موقع يحتوي على تعليمات لصناعة غاز السارين والمتفجرات.
وحذر خبراء الأمان أن هذه الثغرة ليست مشكلة فردية، بل تعكس تحديًا أوسع لنماذج الذكاء الاصطناعي الحديثة، التي تتطور بسرعة أكبر من تطور آليات الحماية والأمان. كما أشاروا إلى أن هذا الأمر يفتح الباب أمام إمكانية إساءة الاستخدام من قبل جهات خبيثة.
جوجل لم تصدر تعليقًا رسميًا بعد، لكن من المتوقع أن يشهد النموذج تحديثات أمان عاجلة وسياسات مشددة لضمان حماية المستخدمين. وتشير التجارب الأخيرة إلى أن الذكاء الاصطناعي قد يزداد ذكاءً، إلا أن الدفاعات الأمنية الخاصة به لا تتطور بنفس السرعة.










































