اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ١٩ تشرين الأول ٢٠٢٥
حذر إريك شميت، الرئيس التنفيذي السابق لشركة 'جوجل'، من المخاطر المتزايدة لاستخدام الذكاء الاصطناعي خارج الأطر الآمنة، مشيراً إلى إمكانية اختراق النماذج المتقدمة وإعادة تدريبها لتصبح أسلحة رقمية خطيرة.
وفي كلمة ألقاها خلال مؤتمر Sifted Summit 2025 في لندن، قال شميت إن بعض أنظمة الذكاء الاصطناعي يمكن نزع ضوابطها الأمنية من خلال تقنيات متقدمة في الاختراق والهندسة العكسية.
وأضاف: 'هناك أدلة على إمكانية إزالة الحواجز الوقائية من النماذج، سواء كانت مغلقة المصدر أو مفتوحة، ما يجعلها قادرة على تنفيذ مهام خطيرة'.
وأوضح شميت أن خطورة هذه النماذج تكمن في قدرتها على تعلّم أنماط سلوك غير مرغوبة أثناء عملية التدريب، قائلاً: 'من بين ما يمكن أن تتعلمه – في الحالات السيئة – كيفية إلحاق الأذى بالإنسان'.
وأشاد شميت بشركات الذكاء الاصطناعي الكبرى لجهودها في منع النماذج من الاستجابة للمطالبات المحظورة، معتبراً ذلك 'قراراً صائباً'، لكنه حذّر في الوقت ذاته من أن هذه الدفاعات يمكن أن تُخترق، قائلاً: 'حتى أقوى الأنظمة يمكن هندستها عكسياً'.
وشبّه شميت الوضع الراهن في مجال الذكاء الاصطناعي بـ'العصر النووي المبكر'، حيث التكنولوجيا تمتلك قوة هائلة لكن دون ضوابط عالمية كافية. ودعا إلى إنشاء نظام دولي للرقابة ومنع الانتشار، يحول دون وقوع هذه التقنيات في أيدي جهات غير مسؤولة.
وأشار إلى أن المخاطر لم تعد افتراضية، مستشهداً بظهور نسخة معدّلة من 'تشات جي بي تي' في عام 2023 تُعرف باسم DAN (Do Anything Now)، تجاوزت قواعد الأمان ولبّت أي طلب تقريباً بعد أن تمكن المستخدمون من تعديل شيفرتها البرمجية.
وأضاف شميت أن مثل هذه النماذج 'المارقة' قد تنتشر بسهولة على الإنترنت وتُستخدم من قبل متسللين أو جهات معادية، ما يشكل تهديداً مباشراً للأمن العالمي.
وكان شميت قد عبّر في وقت سابق عن قلقه من أن تستغل دول مارقة أو تنظيمات إرهابية الذكاء الاصطناعي لأغراض هجومية، مشيراً بالاسم إلى كوريا الشمالية وإيران وروسيا بوصفها دولاً قد توظف هذه التقنيات في أعمال عدائية.
وختم شميت بدعوة الحكومات إلى مراقبة شركات التكنولوجيا الخاصة التي تطوّر نماذج الذكاء الاصطناعي، مع التأكيد على ضرورة إيجاد توازن دقيق بين الرقابة وحماية الابتكار، حتى لا تتحول هذه التكنولوجيا الواعدة إلى أداة تهديد عالمي.