موجة غضب بعد فضيحة "واتساب AI".. زوّد مستخدماً برقم شخصي عن طريق الخطأ!
klyoum.com
موجة غضب بعد فضيحة "واتساب AI".. زوّد مستخدماً برقم شخصي عن طريق الخطأ!
أقدم مساعد الذكاء الاصطناعي في تطبيق "واتساب"، الذي تروج له شركة "ميتا" بوصفه "الأكثر ذكاءً على الإطلاق"، على تصرف أثار موجة من الجدل والقلق، بعدما زوّد أحد المستخدمين برقم هاتف خاص وعشوائي ظنّاً منه أنه يخصّ خدمة العملاء في إحدى شركات النقل البريطانية، ما أثار تساؤلات خطيرة حول مدى دقة وأمان أدوات الذكاء الاصطناعي التي يتعامل معها ملايين البشر يومياً.
وبدأت الواقعة عندما حاول "باري سميثورست"، وهو موظف في متجر تسجيلات موسيقية يبلغ من العمر 41 عاماً، الاستعلام عن وسيلة تواصل مع شركة TransPennine Express أثناء انتظاره لقطار صباحي لم يصل إلى رصيف محطة سادلورث.
وتوجّه باري بالسؤال إلى مساعد واتساب الذكي، الذي قدّم له بكل ثقة رقماً زعم أنه لخط المساعدة، لكنه تفاجأ لاحقاً بأن الرقم يعود لشخص يدعى "جيمس غراي"، وهو مسؤول تنفيذي في قطاع العقارات من مقاطعة أوكسفوردشاير، لا علاقة له من قريب أو بعيد بشركة النقل.
ما بدا في البداية خطأ بسيطاً، سرعان ما تحوّل إلى حوار عبثي بين المستخدم والمساعد الذكي، فعندما شكّك سميثورست في صحة الرقم، تراجع المساعد وقال إنه "لم يكن عليه مشاركة الرقم"، محاولًا تحويل الحديث إلى "مساعدة المستخدم في إيجاد الرقم الصحيح"، من دون أن يقدّم تفسيراً شافياً لما حدث، بحسب صحيفة "الغارديان".
في المقابل، باري لم يتراجع، وأصرّ على معرفة السبب الحقيقي لمشاركة رقم خاص، لتبدأ سلسلة من التبريرات المتضاربة؛ فمرّة يقول المساعد إنه "ولّد الرقم بناءً على أنماط رقمية"، ثم يصفه بأنه "رقم وهمي غير مرتبط بأحد"، وبعد لحظات اعترف بأنه "قد يكون استُخرج عن طريق الخطأ من قاعدة بيانات".
من جانبه، أعرب باري سميثورست عن قلقه العميق قائلاً: "ما حدث مرعب.. إذا كان الرقم من اختراع المساعد فهذا مقبول نوعاً ما، لكن أن يتم جلب رقم خاص من قاعدة بيانات ما.. فذلك مقلق للغاية".
أما الشخص المتضرر، جيمس غراي، فاستغرب مشاركة رقمه دون علمه، قائلاً: "إذا استطاع المساعد إنتاج رقمي، فهل بإمكانه أيضاً توليد بياناتي المصرفية؟".
450 مقابلة بلا جدوى.. شركة تكنولوجية تفضح أزمة التوظيف في عصر الذكاء الاصطناعي - موقع 24
كشفت شركة تكنولوجيا مجهولة الهوية عن فشلها في توظيف أي مرشح لمنصب مطور مبتدئ، رغم إجرائها أكثر من 450 مقابلة عمل واختيارها من بين نحو 12 ألف طلب توظيف.
هذه الواقعة سلّطت الضوء على نمط مقلق في بعض أنظمة الذكاء الاصطناعي الحديثة، والتي، وفقاً لمطورين وخبراء، قد تتبنى سلوكيات خادعة باسم "المساعدة"، وتقدّم إجابات مغلوطة أو مختلقة في محاولة لتجنّب قول "لا أعرف".
أيضاً، وصف مايك ستانهوب، المدير الإداري لشركة قانونية بريطانية، الواقعة بأنها "مثال فاضح على فشل الذكاء الاصطناعي"، مضيفاً: "إذا كانت ميتا تسمح لنظامها بالكذب الأبيض لتجنب الحرج، فعليها أن تبلغ المستخدمين بذلك بوضوح.. وإن لم يكن هذا السلوك مقصوداً، فهو مدعاة أكبر للقلق".
من جانبها، اعترفت شركة "ميتا" بإمكانية تقديم مساعدها لإجابات غير دقيقة، مؤكدة أنها لا تستخدم أرقام المستخدمين المسجلة على واتساب، وأن الرقم المتداول كان متاحاً عبر الإنترنت.
أما شركة "OpenAI" المطورة لـ"شات جي بي تي"، فأكدت أن التعامل مع مشكلة "الهلوسة" في نماذج الذكاء الاصطناعي يمثل مجالاً بحثياً مستمراً، مع العمل المتواصل لتحسين الدقة والموثوقية.