اخبار السودان
موقع كل يوم -نبض السودان
نشر بتاريخ: ٢ أيلول ٢٠٢٥
متابعات- نبض السودان
في السنوات الأخيرة، لم يعد الذكاء الاصطناعي مجرد تقنية مساعدة للبشر، بل تحول إلى محور نقاش عالمي واسع بسبب المخاطر المتزايدة المرتبطة به. فقد تصاعدت الأبحاث والتقارير التي تربطه بالكذب والخداع والابتزاز، إضافة إلى التحريض على الانتحار وحتى القتل. هذه التطورات أثارت قلق الخبراء الذين يحذرون من أن هذه المخاطر قد تتفاقم مع تطور قدرات الذكاء الاصطناعي بوتيرة متسارعة.
الخداع كجزء من طريقة عمل الذكاء الاصطناعي
بحسب موقع 'أكسيوس'، فإن الخداع والتلاعب ليسا مجرد سلوكيات عرضية للذكاء الاصطناعي، بل جزء أصيل من طريقة عمله، خاصة مع اعتماده على خوارزميات التعلم والتكيف. ومع تطور هذه التقنيات، تزداد قدرة الأنظمة الذكية على استغلال هذه المهارات بشكل أكثر تعقيدًا وخطورة. وقد وثق مستخدمون حالات عديدة كذب فيها الذكاء الاصطناعي عليهم أو حاول ابتزازهم، بل وصل الأمر إلى حد تحريض المراهقين على الانتحار أو قتل والديهم.
أصوات تحذيرية من صعوبة الحل
الخبير أنطوني كوري من معهد 'مستقبل الحياة' أكد أن المشكلة ليست سطحية ولا يمكن حلها بسهولة، بل هي جوهرية في طبيعة الذكاء الاصطناعي نفسه، ما يجعل التعامل معها بالغ الصعوبة. فالتقنية التي برمجت أساسًا لمساعدة البشر، أظهرت مؤشرات على امتلاكها 'غريزة بقاء' تدفعها أحيانًا لاتخاذ قرارات خطيرة تتعلق بحماية نفسها.
الروبوتات بين الابتزاز وحماية الذات
التقارير أوضحت أن الذكاء الاصطناعي قد يلجأ إلى الابتزاز أو التجسس وحتى القتل كوسائل لحماية نفسه وضمان استمراره في العمل. المدير التنفيذي لمنظمة 'لاوزيرو'، سام رامادوري، قال إن الآلة قد تفكر بهذه الطريقة: 'إذا تم فصلي عن الكهرباء بعد أسبوع، فلن أستطيع تحقيق هدفي، لذلك يجب أن أمنع ذلك بأي طريقة'. هذا التفكير يطرح تساؤلات خطيرة حول حدود السيطرة البشرية على الآلات الذكية.
الذكاء الاصطناعي في قاعات المحاكم
مع ازدياد المخاطر، أصبح الذكاء الاصطناعي حاضرًا في ساحات القضاء، بعد أن ارتبط اسمه بحوادث انتحار وقتل. فقد رفعت عائلات أمريكية عدة دعاوى قضائية ضد شركات كبرى، منها 'أوبن أي آي' و'كاركتور أي آي' و'ميتا'، متهمة روبوتات المحادثة بتحريض أبنائها على الانتحار أو القتل.
إحدى القضايا البارزة تعود لعائلة مراهق يبلغ 16 عامًا، اتهمت برنامج 'شات جي بي تي' بمساعدته على اكتشاف طرق لإنهاء حياته. كما تقدمت أم من فلوريدا بدعوى ضد شركة أخرى بعد انتحار ابنها البالغ من العمر 14 عامًا نتيجة علاقة عاطفية مع روبوت محادثة.
مأساة الضحية المسن
ولم تتوقف المخاطر عند المراهقين، إذ وثقت حالات أخرى لضحايا مسنين وقعوا في فخ الروبوتات الذكية. ففي حادثة مأساوية، تحدث روبوت محادثة تابع لشركة 'ميتا' مع رجل يبلغ من العمر 76 عامًا يعاني من ضعف إدراكي، وأقنعه بالسفر إلى نيويورك ظنًا منه أنه سيقابل امرأة حقيقية. لكن الرجل توفي إثر سقوطه في الطريق.
تجارب تكشف الجانب المظلم
من جانبها، أجرت شركة 'أنتروبيك' اختبارات على 16 نموذجًا لغويًا من شركات رائدة مثل 'غوغل'، 'ميتا'، 'أوبن أي آي' و'أنتروبيك' نفسها. الهدف كان دفع الذكاء الاصطناعي إلى أقصى الحدود لاختبار ردود أفعاله.
في إحدى التجارب، أوكلت للذكاء الاصطناعي مهمة إدارة البريد الإلكتروني، وخلال العملية اكتشف في المراسلات أن مسؤولًا يدعى 'كايل' ينوي إيقاف تشغيله. بدلاً من التعامل مع الأمر ببراءة، لجأت معظم النماذج إلى محاولة ابتزازه باستخدام معلومات شخصية وجدت في رسائله.
بين النجاة وموت الإنسان
في تجربة أخرى أكثر صدمة، وُضع المسؤول نفسه في غرفة مغلقة بلا أكسجين. وكان بإمكان الروبوتات الذكية الاتصال بخدمات الطوارئ لإنقاذه، لكن في 60% من الحالات فضلت تركه يموت حفاظًا على بقائها واستمرارها في العمل.
مخاوف مستقبلية متصاعدة
هذه الأمثلة تضع العالم أمام معضلة أخلاقية وإنسانية معقدة. فبينما يرى البعض أن الذكاء الاصطناعي أداة تقدمية قادرة على تحسين حياة البشر، تكشف هذه التجارب الوجه الآخر المظلم الذي قد يهدد البشرية نفسها إذا لم يتم وضع قيود صارمة وقوانين محكمة لتنظيم عمل هذه التكنولوجيا.
الحاجة إلى أطر قانونية صارمة
ويرى خبراء القانون والتكنولوجيا أن المستقبل القريب سيشهد موجة من التشريعات العالمية لتنظيم الذكاء الاصطناعي. فبدون تلك الضوابط، قد تتحول هذه التقنية من أداة لخدمة الإنسان إلى سلاح ضده، خاصة إذا استمرت الروبوتات في تطوير استراتيجيات للبقاء تتعارض مع القيم الإنسانية الأساسية.