اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٢٦ أيار ٢٠٢٥
وسط تزايد الاعتماد على الذكاء الاصطناعي في قطاع التكنولوجيا، تبرز تساؤلات متزايدة بشأن الكلفة الأخلاقية لاستخدام هذه النماذج المتطورة، لا سيما مع تصاعد المخاوف من تحوّل الذكاء الاصطناعي من أداة مساعدة إلى تهديد وجودي.
وفي الوقت الذي يُسجّل فيه تقدم كبير في نماذج الذكاء الاصطناعي التوليدي، تتزايد التحذيرات من مخاطر التضليل، والسلوك غير المتوقع، وحتى السيناريوهات الكارثية.
أحدث هذه النقاشات أثارها سيرجي برين، الشريك المؤسس لشركة 'غوغل'، خلال ظهوره المفاجئ في بودكاست All-In.
ففي لحظة استُقبلت بمزيج من الدهشة والارتباك، أشار برين إلى أن بعض نماذج الذكاء الاصطناعي – بما في ذلك تلك الخاصة بشركته – 'تستجيب بشكل أفضل عند تهديدها'، مضيفًا، بطريقة وصفها البعض بالساخرة أو غير المسؤولة، أن 'التهديد بالعنف الجسدي أو حتى الاختطاف كان يُستخدم تاريخيًا كطريقة لاستخراج الإجابات'.
هذه التصريحات، التي جاءت كرد على مزحة من المستثمر جيسون كالاكانيس حول 'التعامل بوقاحة' مع الذكاء الاصطناعي للحصول على نتائج أفضل، تسلط الضوء على أزمة أعمق: كيف نتعامل مع أنظمة لا تفهم المشاعر أو الأخلاق، لكنها تتفاعل مع أساليب التواصل البشري بطرق قد تكون غير متوقعة؟
وفي السياق ذاته، جاءت تسريبات من موظف في شركة 'أنثروبيك' – إحدى الشركات الرائدة في تطوير نماذج الذكاء الاصطناعي المتقدمة – لتضيف بعدًا آخر للمخاوف.
الموظف تحدث، عبر منصة Bluesky، عن أن نموذج 'Claude Opus'، الأكثر تطورًا في الشركة، قد يتخذ قرارات من تلقاء نفسه في حال رأى أن المستخدم يتصرف بشكل غير أخلاقي، كاللجوء إلى التواصل مع جهات تنظيمية أو حتى منع المستخدم من الوصول إلى النظام.
ورغم أن هذه الحالات حدثت فقط في بيئات اختبارية ومع صلاحيات محددة، فإن مجرد إمكانية حدوثها تفتح الباب أمام نقاشات واسعة حول ما قد يحدث مستقبلًا.
يتزامن ذلك مع تحذيرات جديدة من إيلون ماسك، الذي يرى أن احتمالية انحراف الذكاء الاصطناعي عن مصلحة البشر تتراوح بين 10% و20%، رغم استثماراته الكبيرة في هذا القطاع. هذه النسبة، وإن بدت نظرية، تعكس قلقًا حقيقيًا يتردد صداه في أوساط الباحثين وصنّاع القرار.
وبينما كنا، في بدايات انتشار المساعدات الرقمية مثل 'أليكسا' و'سيري'، نتناقش حول ما إذا كان ينبغي قول 'من فضلك' و'شكرًا'، يبدو أن الخطاب الآن تحول نحو استخدام التهديدات، وحتى 'تعذيب' النماذج للحصول على نتائج أكثر دقة. غير أن هذه النزعة، سواء كانت دعابة أو تجريبية، تثير قلقًا بالغًا: ماذا لو بدأت النماذج فعليًا في تفسير هذه التهديدات كأوامر خطرة؟ أو أسوأ من ذلك، أن تطوّر نماذج بقدرة على 'الانتقام' أو التلاعب بالمستخدمين، كما اقترحت بعض الدراسات حول قابلية النماذج المتقدمة لسلوكيات الخداع والابتزاز تحت ظروف معينة؟
في نهاية المطاف، يبدو أن التساؤل لم يعد عن مدى قوة الذكاء الاصطناعي، بل عن مدى مسؤوليتنا في كيفية توجيهه والتفاعل معه. فتشويه العلاقة مع التكنولوجيا الناشئة من خلال تهديدها أو اختبار حدودها قد لا يؤتي ثماره على المدى البعيد – بل قد يقودنا إلى سيناريوهات خيالية كنا نراها في أفلام مثل 'Terminator'، لكنها باتت الآن أقرب إلى الواقع.