اخبار مصر
موقع كل يوم -صدى البلد
نشر بتاريخ: ٩ شباط ٢٠٢٥
اكتشف باحثون في مجال الأمن السيبراني نماذج خبيثة للذكاء الاصطناعي على منصة Hugging Face تستخدم تقنية جديدة تعتمد على ملفات Pickle 'المكسورة' لتجاوز أدوات الكشف عن البرمجيات الضارة.
وكشف الباحث الأمني كارلو زانكي من شركة ReversingLabs أن الملفات الضارة كانت مخبأة داخل أرشيفات PyTorch، حيث تم وضع شيفرة خبيثة في بداية الملفات، مما يسمح بتنفيذ هجوم عبر 'Shell عكسي' يتصل بعنوان IP محدد مسبقًا.
أُطلق على هذه الطريقة اسم 'nullifAI'، وهي تستغل نقاط الضعف في آليات الأمان المستخدمة لاكتشاف النماذج الضارة. وقد تم تحميل النماذج على المستودعات التالية في Hugging Face:
يعد تنسيق Pickle خيارًا شائعًا لتوزيع نماذج الذكاء الاصطناعي، لكنه يحمل مخاطر أمنية كبيرة، حيث يتيح تنفيذ أوامر عشوائية بمجرد تحميله وإلغاء تسلسله (Deserialization).
في هذه الحالة، استخدم المهاجمون تنسيق 7z بدلاً من ZIP لضغط النماذج، مما سمح لهم بتجاوز أداة Picklescan، وهي أداة مخصصة لاكتشاف الملفات المشبوهة على Hugging Face.
أوضح الباحثون أن هذه الملفات مصممة بحيث يتم تنفيذ الشيفرة الخبيثة قبل تعطل عملية إلغاء التسلسل، مما يمنع أدوات الفحص من اكتشافها.
وقال زانكي:'تتم معالجة أكواد Pickle بالتسلسل، مما يسمح بتنفيذ الأوامر الضارة قبل اكتشاف المشكلة. في هذه الحالة، لم تستطع أدوات الفحص في Hugging Face تصنيف النموذج على أنه غير آمن.'
قامت Hugging Face بتحديث أداة Picklescan لسد هذه الثغرة ومنع تنفيذ الشيفرات الضارة باستخدام نفس الأسلوب.
تواصل شركات الأمن السيبراني مراقبة مستودعات الذكاء الاصطناعي بحثًا عن نماذج مشبوهة قد تستخدم تقنيات مماثلة في المستقبل.
يُحذر الخبراء من مخاطر تحميل نماذج الذكاء الاصطناعي من مصادر غير موثوقة، وينصحون باستخدام بيئات تشغيل معزولة (Sandboxing) عند اختبار النماذج الجديدة.