من يعقلن الخوارزميات؟.. الخليج بين طموح الصناعة وخطر التحيّز
klyoum.com
أخر اخبار قطر:
الهند: العملية سيندور لم تستهدف أي منشآت عسكرية باكستانيةكامل جميل - الخليج أونلاين
- الذكاء الاصطناعي التوليدي قد يكون مسؤولاً عن أكثر من 40% من حوادث خرق البيانات على مستوى العالم بحلول عام 2027.
- منطقة الخليج العربي تشهد تسارعاً كبيراً في وتيرة التحول الرقمي بما يشمل الذكاء الاصطناعي ليكون حاضراً في مفاصل الصناعات
يدفع تسارع وتيرة التحول الرقمي في منطقة الخليج الذكاء الاصطناعي ليكون حاضراً بقوة في مفاصل القطاع الصناعي، من خطوط الإنتاج المؤتمتة إلى مراكز البيانات والتحليل الضخم.
لكن هذه الثورة التقنية لا تأتي دون ثمن، إذ تطرح في موازاتها أسئلة حساسة تتعلق بأمن البيانات، وخصوصية الأفراد، ومخاطر التحيز الخوارزمي، وصولاً إلى الجدل الأخلاقي حول "حق" الآلة في اتخاذ قرارات تمس الإنسان بشكل مباشر.
في فبراير الماضي، حذّرت شركة "جارتنر" الاستشارية العالمية من أن الذكاء الاصطناعي التوليدي، إذا لم يُدر بحذر، قد يكون مسؤولاً عن أكثر من 40% من حوادث خرق البيانات على مستوى العالم بحلول عام 2027.
هذا التقدير المفزع ليس بعيداً عن مرأى صناع القرار في الخليج، الذين يدركون أن الاعتماد المتزايد على الخوارزميات في خطوط الإنتاج وأنظمة المشتريات وسلاسل التوريد يتطلب يقظة سيبرانية غير مسبوقة.
بحسب ما تذكر مؤسسة "راند كوربريشن" الأمريكية للأبحاث، فإن القلق ليس في الذكاء الاصطناعي نفسه، بل في استخدامه دون فهم معمّق للبيانات التي يستهلكها.
وتلفت إلى أن أحد هذه المخاوف هو التحيز المحتمل؛ إذ تعطي الخوارزميات انطباعاً بأنها غير متحيزة، لكنها تُكتب من قبل أشخاص وتُدرّب على بيانات اجتماعية المصدر؛ لذا، يمكنها ترميز وتضخيم التحيزات البشرية.
في المصانع الذكية تُستخدم الكاميرات وأنظمة التتبع القائمة على الذكاء الاصطناعي لمراقبة أداء العاملين وتحسين الإنتاجية.
تشير أبحاث جامعة كورنيل إلى أن المؤسسات التي تستخدم الذكاء الاصطناعي لمراقبة سلوك موظفيها وإنتاجيتهم قد تتوقع منهم المزيد من الشكاوى، وانخفاض إنتاجيتهم، ورغبتهم في الاستقالة أكثر ما لم تُؤطر التكنولوجيا على أنها تدعم تطورهم.
ووفقاً للبحث، فإن أدوات المراقبة، التي تُستخدم بشكل متزايد لتتبع وتحليل النشاط البدني، وتعبيرات الوجه، ونبرة الصوت، والتواصل اللفظي والكتابي، تجعل الناس يشعرون بفقدان استقلاليتهم بشكل أكبر مقارنةً بالرقابة البشرية.
ويقول الباحثون إنه ينبغي على الشركات والمؤسسات الأخرى التي تستخدم التقنيات سريعة التغير لتقييم ما إذا كان الناس يتقاعسون، أو يعاملون العملاء بشكل جيد، أو يحتمل أن ينخرطوا في الغش أو غيره من المخالفات، أن تأخذ في الاعتبار عواقبها غير المقصودة، والتي قد تؤدي إلى مقاومة وتضر بالأداء.
لكن، كيف يتحسن الأداء رغم انتهاك الخصوصية؟
أحد التحديات التي بدأت تظهر بشكل أكثر وضوحاً في الخليج هو التحيز الكامن في خوارزميات الذكاء الاصطناعي.
بحسب ما تذكر الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، يشير الخبراء إلى أن الخوارزميات التي تُدرّب على بيانات تاريخية قد تعكس التحيزات الاجتماعية أو المؤسسية القديمة، مما يؤدي إلى قرارات تمييزية دون قصد، بحسب وكالة "واس".
هذا يكتسب أهمية خاصة في أنظمة التوظيف الآلي أو التوزيع الآلي للمهام، حيث يمكن لقرار صادر عن "آلة غير منحازة ظاهرياً" أن يكون في الواقع محمّلاً بأحكام مسبقة.
في مواجهة هذه التحديات بدأت الحكومات الخليجية باتخاذ خطوات فعلية، وأبرز ما اتخذته دول الخليج في هذا الخصوص:
تدشين الإمارات قانون حماية البيانات الشخصية في عام 2022.
وقعت قطر اتفاقية مع شركة Scale AI الأمريكية لتطوير أكثر من 50 تطبيقاً للذكاء الاصطناعي في الخدمات الحكومية.
أدرجت السعودية مبادئللذكاء الاصطناعي القابل للتفسير (Explainable AI) لضمان الشفافية في اتخاذ القرار.
يتفق خبراء التكنولوجيا والسياسات في الخليج على أن المنطقة بحاجة إلى نموذج خاص بها لتنظيم الذكاء الاصطناعي، يأخذ في الاعتبار الخصوصية الثقافية والدينية، إلى جانب التحديات التقنية.
في هذا الإطار، ناقشت دول مجلس التعاون في 1 مايو الجاري، مشروع تقرير أولي بشأن دراسة وضع سياسات وتشريعات خليجية موحدة لاستخدام الذكاء الاصطناعي.
وتسعى الدول الخليجية من خلال الدراسة إلى جعل التشريعات عنصراً أساسياً في تنظيم استخدامات الذكاء الاصطناعي، لكي تسهم في وضع الأطر القانونية والأخلاقية التي تضمن توظيف هذه التكنولوجيا بشكل آمن وفعّال، بما يحفظ الحقوق، ويحد من التجاوزات، ويعزز من ثقة الأفراد والمؤسسات في اعتماد حلول الذكاء الاصطناعي.
ما سبق يؤكد أن الذكاء الاصطناعي في الصناعة الخليجية لم يعد خياراً، بل ضرورة لمواكبة المنافسة العالمية.
لكن السؤال ليس: "هل نستخدمه؟"، بل: "كيف نستخدمه؟"؛ فبين فرص التحول الصناعي الهائلة، يبرز أيضاً واجب أخلاقي واضح لحماية البشر من أن يكونوا مجرد بيانات في معادلة خوارزمية.
وسام مكي سالم، الباحث المتخصص في الذكاء الاصطناعي وأمن الشبكات، يقول لـ"الخليج أونلاين" إن توظيف الذكاء الاصطناعي في الصناعة يتطلب نهجاً متعدد الأبعاد يضمن كرامة الإنسان وفاعليته العلمية، ويشمل:
إطاراً أخلاقياً راسخاً يستند إلى حقوق الإنسان والشفافية والإنصاف، مع تضمين تقييم الأثر الأخلاقي قبل النشر.
إشرافاً بشرياً مباشراً (Human‑in‑the‑Loop) في نقاط اتخاذ القرار الحرجة وضمان آليات استئناف للمتضررين.
قابلية التفسير عبر توثيق نماذج التدريب واستخدام أساليب مثل LIME أو SHAP لشرح مخرجات النماذج.
حماية البيانات وخصوصيتها من خلال موافقة صريحة، وتقييم الأثر على الخصوصية، وتقنيات إخفاء الهوية.
مراقبة التحيّز وإدارته عبر اختبارات دورية لمختلف الفئات وتصحيح انحياز البيانات بمنهجيات علمية.
حوكمة ومساءلة عبر لجان متخصصة، سياسات واضحة، ومؤشرات أداء لقياس الأثر الاجتماعي والبيئي.
بناء القدرات بتنظيم تدريبات وورشات عمل لتعزيز وعي جميع المستويات بثقافة "الذكاء الاصطناعي المسؤول".