اخبار السودان
موقع كل يوم -نبض السودان
نشر بتاريخ: ٢٠ تموز ٢٠٢٥
متابعات – نبض السودان
كشفت شركة 'OpenAI' عن أداة ذكاء اصطناعي جديدة ضمن منصتها 'شات جي بي تي' تحمل اسم 'الوكيل'، والتي تمكّنه من تنفيذ إجراءات بالنيابة عن المستخدم.
ورغم أن هذه التقنية وُصفت بأنها تسهّل جمع البيانات وحجز الرحلات وإعداد العروض التقديمية، إلا أنها تثير قلقًا متزايدًا بشأن إمكانية استخدامها في تطوير أسلحة بيولوجية، ما دفع الشركة إلى تصنيفها ضمن الأدوات 'عالية الخطورة' فيما يتعلق بالمخاطر البيولوجية.
مساعد رقمي أم تهديد عالمي؟
الوكيل الجديد في 'شات جي بي تي' لا يكتفي بالمساعدة في المهام المكتبية، بل يمتلك القدرة على اتخاذ قرارات وتنفيذ أوامر بشكل مستقل، وهو ما يُعتبر قفزة نوعية في تقنيات الذكاء الاصطناعي. لكن هذا التطور خلق قلقًا في أوساط خبراء الأمن الرقمي، خاصة أن الأداة قد تتيح للأشخاص المبتدئين الوصول إلى معلومات حساسة يمكن أن تُستخدم في تصنيع أسلحة بيولوجية أو كيميائية.
تقييم الخطر البيولوجي
بحسب تقرير لمجلة 'فورتشن' اطّلعت عليه 'العربية Business'، فإن هذا الوكيل يعتبر أول منتج تصفه 'OpenAI' رسميًا بأنه يحمل قدرة 'عالية' على المخاطر البيولوجية. ويُظهر 'إطار التأهب' الذي تعتمده الشركة أن النماذج المتقدمة مثل وكيل شات جي بي تي قد تسهم في زيادة احتمالات وقوع حوادث إرهاب بيولوجي على يد جهات غير حكومية.
اعتراف داخلي بالمخاطر
أحد مهندسي الفريق الفني في 'OpenAI'، بواز باراك، قال في منشور على مواقع التواصل إن 'بعض الناس قد يعتقدون أن المخاطر البيولوجية غير حقيقية، أو أن النموذج لا يقدم سوى معلومات متاحة عبر الإنترنت. ربما كان ذلك صحيحًا في عام 2024، لكنه لم يعد كذلك الآن'. وأضاف: 'هذا الخطر واقعي جدًا، ومن غير المسؤول إطلاق هذا النموذج دون إجراءات وقائية صارمة'.
حزمة من الإجراءات الوقائية
ردًا على هذه المخاوف، أكدت 'OpenAI' أنها اتخذت عدة تدابير احترازية للحد من سوء استخدام وكيل 'شات جي بي تي'، من بينها:
لا أدلة قاطعة.. ولكن الحذر واجب
كيرين جو، الباحثة في مجال السلامة في 'OpenAI'، صرحت بأنه لا توجد أدلة قاطعة على قدرة الأداة على تمكين شخص من تنفيذ تهديد بيولوجي، إلا أن الشركة فضلت اتباع نهج وقائي عبر تطبيق منظومة حماية صارمة.
مخاوف من رفع مستوى 'المبتدئين'
وحذّرت 'OpenAI' من أن النماذج الذكية قد تُستخدم قريبًا لرفع كفاءة المبتدئين وتقديم إرشادات شبه متخصصة في مجالات خطيرة. وقال باراك: 'بخلاف التهديدات النووية، فإن المواد البيولوجية أسهل في الوصول، والأمن يعتمد بدرجة أكبر على ندرة المعرفة.. وهنا تكمن الخطورة في قدرة الوكيل على سد هذه الفجوة'.
صراع محموم على وكلاء الذكاء الاصطناعي
تُعد ميزة 'الوكيل' جزءًا من سباق تقني محموم بين كبرى شركات الذكاء الاصطناعي مثل 'غوغل' و'أنثروبيك'، التي طرحت أدوات مماثلة مؤخرًا. وتسعى الشركات لتمكين المستخدمين من أتمتة المهام الرقمية وإدارة العمليات اليومية دون تدخل بشري مباشر.
استقلالية النموذج ترفع المخاطر
مع ازدياد استقلالية نماذج الذكاء الاصطناعي، تعترف 'OpenAI' بأن المخاطر تزداد، لا سيما في حال إساءة الاستخدام. ومع ذلك، أكدت الشركة أن المستخدم ما زال يحتفظ بالتحكم الكامل، حيث يتطلب 'الوكيل' إذنًا صريحًا قبل تنفيذ أي خطوة مهمة، كما يمكن إيقافه أو إعادة توجيهه في أي وقت.
من أداة للراحة إلى قنبلة موقوتة
في الوقت الذي يُروج فيه لوكلاء الذكاء الاصطناعي على أنهم أدوات لتسهيل الحياة والعمل، فإن قدراتهم الخارقة تضعهم تحت المجهر من قبل الخبراء، الذين يرون فيهم إمكانات مرعبة يمكن أن تُستغل في تنفيذ تهديدات كبرى للبشرية، من بينها تصنيع أسلحة بيولوجية بأيدٍ غير متخصصة.
شركات التكنولوجيا في مواجهة الواقع الأخلاقي
ورغم أن الشركات تحاول تسويق هذه الأدوات كوسائل راحة وابتكار، إلا أن واقع استخدامها يكشف عن تحدٍ أخلاقي غير مسبوق، يستوجب موازنات دقيقة بين التطور التقني وسلامة البشرية