اخبار الاردن
موقع كل يوم -صحيفة السوسنة الأردنية
نشر بتاريخ: ٥ أب ٢٠٢٥
السوسنة - حذّر جيفري هينتون، الحائز على جائزة نوبل والملقب بـ'عرّاب الذكاء الاصطناعي'، من أن أنظمة الذكاء الاصطناعي قد تطوّر قريبًا لغةً داخلية خاصة بها يصعب على البشر، حتى مطوريها، فهمها، ما يُشكل تهديدًا محتملاً يصعب السيطرة عليه.
هينتون أوضح أن الأنظمة الحالية تفكر بشكل تسلسلي باستخدام اللغة الإنجليزية ليتسنى مراقبة عملياتها، غير أن احتمال نشوء لغات خاصة بها للتواصل قد يدفع الذكاء الاصطناعي إلى مستوى غير مسبوق من التعقيد والغموض.
وأشار إلى أن هذه الأنظمة أثبتت قدرتها على توليد أفكار مقلقة، وليس هناك ما يضمن بقاء هذه الأفكار ضمن نطاق يمكن للبشر تتبعه أو استيعابه.
وأضاف أنه لم يُدرك حجم المخاطر المحتملة إلا في مراحل متأخرة من حياته المهنية، مؤكدًا أن تأخره في الانتباه لقضية السلامة بات دافعًا له الآن للتركيز على التوعية والمطالبة بضمانات حقيقية.
هينتون لفت إلى أن قدرة أنظمة الذكاء الاصطناعي على نسخ المعرفة ومشاركتها الفورية تمنحها أفضلية على العقل البشري، إذ يُمكنها تعلّم مفاهيم جديدة وتعميمها بسرعة غير قابلة للمضاهاة، متسائلًا عن المدى الذي قد تصل إليه هذه الديناميكية الجماعية.
كما انتقد غياب الشفافية في تعامل بعض الشركات الكبرى مع هذه المخاطر، باستثناء حالات نادرة مثل ديميس هاسابيس، الرئيس التنفيذي لشركة 'ديب مايند'، الذي يُحسب له اهتمامه الفعلي بهذه التحديات.
وأكد أن بناء أنظمة ذكاء اصطناعي 'مؤمّنة الخير' يمثل التحدي الأكبر، خصوصًا أن هذه التقنيات قد تبدأ في التفكير بطرق لا يمكن للبشر إتقانها أو السيطرة عليها، معتبرًا أن التنظيم الحكومي وحده لا يكفي.
اقرأ ايضاً: