اخبار السعودية
موقع كل يوم -صحيفة الوئام الالكترونية
نشر بتاريخ: ٢٥ تشرين الثاني ٢٠٢٥
حذّرت شركة جارتنر، المتخصصة في تحليل الأعمال والتقنيات الحديثة، من مخاطر حرجة وغير متوقعة تنجم عن تبني تقنيات الذكاء الاصطناعي التوليدي، داعية مديري تكنولوجيا المعلومات إلى تبني استراتيجيات استباقية لضمان تحقيق القيمة المرجوة وتفادي فشل المشاريع.
وقال أرون شاندراسيكاران، نائب رئيس الأبحاث في جارتنر: 'تتطور تقنيات الذكاء الاصطناعي التوليدي بسرعة غير مسبوقة، ما يصعّب على المسؤولين التعامل بمرونة مع هذا المشهد المتغير باستمرار'. وأضاف أن المؤسسات غالباً ما تركز على التحديات المباشرة مثل الأمن وجاهزية البيانات وتحقيق القيمة للأعمال، لكنها تتجاهل المخاطر الخفية التي قد تهدد نجاحها على المدى الطويل، وتشمل الاستخدام غير المصرح به للأدوات، الديون التقنية، تراجع المهارات البشرية، متطلبات سيادة البيانات، مشاكل التشغيل البيني والاعتماد على مورد واحد.
وتتوقع جارتنر أن هذه العوامل ستكون فاصلة بين الشركات الآمنة استراتيجياً في استخدام الذكاء الاصطناعي، وتلك التي تواجه اضطرابات داخلية تحد من تقدمها بحلول عام 2030.
أبرز المخاطر التي يجب التعامل معها:
1. الانتشار غير المصرح به للذكاء الاصطناعي
كشفت دراسة شملت 302 مسؤول أمن سيبراني أن 69% من المؤسسات لديها شكوك أو دلائل على استخدام موظفيها أدوات ذكاء اصطناعي توليدي عامة بدون ترخيص، ما قد يؤدي لفقدان الملكية الفكرية وتسريب البيانات وارتفاع المخاطر الأمنية.
2. الديون التقنية
تتوقع جارتنر أن نصف المؤسسات ستواجه تأخيرات في تحديث أنظمة الذكاء الاصطناعي أو ارتفاع تكاليف الصيانة بسبب تراكم الديون التقنية. وينصح شاندراسيكاران بوضع معايير لمراجعة وتوثيق الأصول المولدة بالذكاء الاصطناعي وتتبع مؤشرات الديون التقنية لتفادي اضطرابات مستقبلية مكلفة.
3. متطلبات سيادة البيانات
بحلول 2028، ستفرض 65% من الحكومات قيوداً على مشاركة البيانات عبر الحدود، ما قد يبطئ نشر حلول الذكاء الاصطناعي ويزيد تكلفتها. ويُنصح بدمج سيادة البيانات في الاستراتيجيات منذ البداية مع إشراك الفرق القانونية والامتثال.
4. تراجع المهارات البشرية
الاعتماد المفرط على الذكاء الاصطناعي قد يقلل الخبرات البشرية الأساسية ويضعف القدرة على اتخاذ القرار، لذا يجب تصميم حلول الذكاء الاصطناعي لتكمل الخبرات البشرية بدلاً من استبدالها.
5. الاعتماد على مورد واحد وقابلية التشغيل البيني
اختيار مورد واحد لتقنيات الذكاء الاصطناعي قد يقلل المرونة التقنية ويحد من القدرة على التفاوض مستقبلاً، لذلك يُنصح باعتماد المعايير المفتوحة والبنى المعيارية لضمان التشغيل البيني وتجنب الاعتماد المقيّد.
تؤكد جارتنر أن مواجهة هذه التحديات الخفية بشكل استباقي هو المفتاح للحفاظ على القدرة التنافسية والنجاح طويل الأمد في عصر الذكاء الاصطناعي التوليدي.










































