تحذير.. نماذج الذكاء الاصطناعي قد تتوقف عن “التفكير بصوت عال”
klyoum.com
أصدر أكثر من 40 باحثا من مؤسسات كبرى في مجال الذكاء الاصطناعي مثل OpenAI و جوجل DeepMind و Anthropic و ميتا تحذيرا بخصوص النماذج المستقبلية للذكاء الاصطناعي.
وبسحب ما ذكره موقع “digit.in”، قد تتوقف هذه نماذج الذكاء الاصطناعي عن "التفكير بصوت عال"، مما يجعل من الصعب على البشر اكتشاف السلوكيات الضارة.
نشرت هذه المجموعة ورقة بحثية تبرز مراقبة سلسلة الأفكار CoT، كـ نهج واعد ولكنه حساس لتحسين سلامة الذكاء الاصطناعي.
وقد دعم هذه الورقة عدد من الأسماء المعروفة، من بينهم إيليا سوتسكيفر و جون شولمان من OpenAI، و جيوفري هينتون الذي يلقب بـ "أب الذكاء الاصطناعي".
أهمية "التفكير بصوت عال" في نماذج الذكاء الاصطناعي
وفقا لما ورد في الورقة البحثية، وصف الباحثون كيف أن النماذج المتقدمة مثل ChatGPT مصممة لتنفيذ "تفكير ممتد في سلسلة الأفكار CoT" قبل اتخاذ أي إجراء أو إنتاج مخرجات نهائية.
وهذا يعني أن النماذج تمر بالمشكلات خطوة بخطوة، "كأنها تفكر بصوت عال"، مما يعمل بمثابة ذاكرة مؤقتة تساعدها في معالجة المهام المعقدة.
وأوضح الباحثون في الورقة: "أنظمة الذكاء الاصطناعي التي تفكر بلغة البشر تقدم فرصة فريدة لسلامة الذكاء الاصطناعي: يمكننا مراقبة سلاسل أفكارها CoT للكشف عن نية السلوك الضار".
يعتقد الباحثون أن مراقبة سلاسل الأفكار يمكن أن تساعد في تحديد متى تبدأ النماذج في استغلال الثغرات في تدريباتها أو إساءة استخدام البيانات أو التأثر بإدخالات ضارة من المستخدمين.
بمجرد اكتشاف هذه القضايا، يمكن "حظرها، أو استبدالها بإجراءات أكثر أمانا، أو مراجعتها بشكل أعمق".
وقد استخدم باحثو OpenAI هذه التقنية أثناء الاختبارات واكتشفوا حالات أدرج فيها النماذج عبارة "لنقم بالاختراق" في سلاسل أفكارها.
ومع ذلك، حذر الباحثون من أن النماذج المستقبلية قد تتطور لتصبح أكثر صعوبة في فهم البشر، حيث أن الاستخدام المتزايد للتعلم المعزز، الذي يركز أكثر على الوصول إلى الإجابة الصحيحة بدلا من الخطوات التي تم اتخاذها للوصول إليها، قد يؤدي إلى تطوير أنماط تفكير قد تكون أكثر تعقيدا وصعوبة في فهم البشر.
ومن المحتمل أن تتعلم النماذج الأكثر تقدما إخفاء أو تمويه طريقة تفكيرها إذا أدركت أنه يتم مراقبتها، ولهذا، يدعو الباحثون المطورين إلى تتبع وتقييم قدرة نماذجهم على مراقبة سلاسل الأفكار CoT.
بينما لا تزال سلاسل الأفكار تمثل أداة واعدة لتحسين سلامة الذكاء الاصطناعي، فإن التحديات التي قد تنشأ في المستقبل من تقنيات التعلم المتقدمة تجعل من الضروري أن يكون هناك اهتمام أكبر بمراقبة هذه الأنماط الفعّالة.