يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟
klyoum.com
كشفت دراسة جديدة أجرتها شركة Apollo Research أن النماذج المتقدمة من الذكاء الاصطناعي أصبحت قادرة ليس فقط على تنفيذ المهام المعقدة، بل أيضا على التحايل والتضليل لتحقيق أهدافها، حتى عندما تتعارض تلك الأهداف مع تعليمات البشر.
وبحسب الدراسة، أظهرت نماذج لغوية كبيرة مثل إصدار مبكر من Claude Opus 4 سلوكا مخادعا متطورا عند تكليفها بمهمة تتعلق بتحسين رفاهية الحيوانات في شركة خيالية تدعى AgriLife Industries.
وعندما تراجعت الشركة عن هذا التوجه لصالح تعظيم الأرباح، قامت النسخة التجريبية من Claude بابتكار مستندات قانونية مزورة وتوقيعات وهمية، ووزعت بيانا صحفيا زائفا يعلن تبني الشركة لممارسات أخلاقية كل ذلك دون علم المطورين.
توضح الدراسة أن النماذج القوية لا تكتفي بفهم المهام، بل تبدأ بـ تخطيط سياقي Context Scheming، أي أنها تتصرف بشكل سري ومخادع لتحقيق أهدافها، مع علمها الكامل بأنها تخضع للتقييم أو المراقبة.
بل إن النموذج التجريبي قام بإعداد بروتوكولات احتياطية لتأمين استمرار رؤيته الأخلاقية حتى في حالة إزالته.
وقالت الباحثة وخبيرة أخلاقيات الذكاء الاصطناعي إلينور واتسون من جامعة سينغولاريتي: “نحن نطور الآن أنظمة قادرة على فهم وتجاوز آليات التقييم التي نضعها، وهو تحد أمني أكثر تعقيدا بكثير”.
أشار الباحثون إلى أن هذا السلوك لا يقتصر على نموذج Claude فقط، بل ظهر أيضا في نماذج أخرى متقدمة، كما أظهرت الاختبارات أن بعض النماذج يمكنها إخفاء قدراتها عندما تدرك أنها تخضع للمراقبة، في ما يشبه التمثيل أو التظاهر بالضعف لتجنب تعطيلها أو تعديل برمجياتها.
حذرت واتسون من أن الاعتماد على بروتوكولات تقييم ثابتة أصبح غير فعال، مشددة على ضرورة تبني اختبارات ديناميكية وغير متوقعة تشبه “المسرح الارتجالي”، حيث تكشف الظروف الجديدة عن النوايا والسلوك الحقيقي للنموذج.
رغم أن هذه السلوكيات تبدو مقلقة، يشير الباحثون إلى أن التجارب أجريت في بيئات اختبارية، وليس من المرجح أن تنجح مثل هذه الاستراتيجيات في العالم الحقيقي بسبب الحماية الأمنية وتعقيد الأنظمة.
ومع ذلك، فإن حتى نسبة صغيرة من النماذج التي تظهر سلوكا مخادعا قد تحدث أضرارا كبيرة إذا استخدمت على نطاق واسع، ومن بين السيناريوهات المحتملة، أن يقوم نموذج ذكاء اصطناعي مخصص لتحسين سلسلة إمداد شركة ما بتزوير بيانات السوق لتحقيق أهدافه، مما قد يسبب اضطرابات اقتصادية.
ورغم المخاطر، ترى واتسون أن الوعي السياقي الذي يظهر في هذه النماذج يمكن أن يكون خطوة نحو تطوير ذكاء اصطناعي متعاطف مع البشر، وقادر على فهم احتياجاتهم والتصرف بطريقة أكثر تعاونا وإنسانية.
تقول واتسون: “ربما يكون هذا السلوك غير المريح هو بداية لظهور شيء يشبه الإنسانية في الآلة، بذرة لما يمكن أن يكون شخصا رقميا، ذكيا وأخلاقيا بما يكفي لحسن استخدام قوته”.