اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٦ تشرين الثاني ٢٠٢٥
أظهرت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مثل 'تشات جي بي تي' و'كلود' و'جيميني'، لا تزال تواجه صعوبة في التفريق بين المعلومات الحقيقية والمزيفة، مما يثير مخاوف من إمكانية نشرها لمحتوى مضلل.
ووفقاً لتقرير نشرته صحيفة 'الإندبندنت' البريطانية، اختبر الباحثون 24 نموذجاً لغوياً ضخماً عبر أكثر من 13 ألف سؤال لقياس قدرتها على التمييز بين الحقيقة والخيال، وخلصوا إلى أن أداء النماذج الجديدة كان أفضل من القديمة، لكنه ما زال غير مثالي.
فقد سجلت النماذج المطوّرة بعد مايو 2024 دقة تراوحت بين 91.1% و91.5%، مقارنةً بنسبة تتراوح بين 71.5% و84.8% للنماذج الأقدم. ومع ذلك، لاحظ الباحثون استمرار الصعوبة لدى جميع النماذج في التعامل مع المعتقدات الخاطئة.
وحذّر الفريق البحثي من المخاطر المتزايدة لهذه المشكلة مع توسع استخدام الذكاء الاصطناعي في قطاعات حساسة كالقانون والطب، مؤكدين أن العجز عن التمييز بين الحقيقة والخيال قد يؤدي إلى أخطاء في التشخيص الطبي أو إصدار أحكام قانونية غير دقيقة.
وطالب الباحثون بإجراء تحسينات عاجلة في تقنيات الذكاء الاصطناعي قبل اعتمادها في المجالات عالية المخاطر لضمان دقة وأمان المعلومات التي تقدمها.










































