اخبار مصر
موقع كل يوم -الرئيس نيوز
نشر بتاريخ: ٢٢ تشرين الأول ٢٠٢٥
في سابقة هي الأولى من نوعها داخل المؤسسة العسكرية الأمريكية، كشف الجنرال وليام 'هانك' تايلور، قائد الجيش الثامن الأمريكي المتمركز في كوريا الجنوبية، عن اعتماده على أداة الذكاء الاصطناعي 'شات جي بي تي' (ChatGPT) كمساعد دائم في إدارة القرارات اليومية والتقارير الميدانية والتحليلات التكتيكية.
وقد أثارت تصريحاته عاصفة من الجدل داخل أروقة البنتاجون وفي أوساط الخبراء، بين من يراها خطوة جريئة نحو 'عصر القيادة الرقمية'، ومن يحذّر من مخاطر الاعتماد المفرط على خوارزميات لا تملك وعيًا أو مسؤولية بشرية.
ووفقًا لما نشرته صحيفة نيويورك بوست، أوضح تايلور أنه يستخدم 'شات جي بي تي' كأداة لتحليل البيانات وتنظيم التقارير، مؤكدًا أنه لا يفوضها اتخاذ قرارات ميدانية حاسمة. وأضاف: 'الأداة تساعدني على التفكير بشكل أوسع، لكنها لا تفكر نيابة عني'.
وخلال مؤتمر جمعية الجيش الأمريكي الأخير، تحدّث تايلور عن تجربته قائلًا إن علاقته بالذكاء الاصطناعي 'تجاوزت حدود الاستخدام التقليدي إلى علاقة تفاعلية يومية'، مشيرًا إلى أنه يوظّفها في صياغة سيناريوهات بديلة وتقدير الاحتمالات الميدانية، مما يتيح له رؤية أوسع قبل اتخاذ أي قرار استراتيجي.
وفي تقرير لموقع سايبر نيوز، أكدت مصادر عسكرية أن الجنرال تايلور يستخدم هذه التقنية لتطوير أدوات دعم القرار، وليس بديلًا عن القادة أو الخبراء.
الذكاء الاصطناعي يدخل مراكز القيادة
تعتبر هذه الخطوة امتدادًا لتحول مؤسسي داخل وزارة الدفاع الأمريكية التي بدأت منذ عام 2023 في دمج تقنيات الذكاء الاصطناعي ضمن برامجها البحثية والعسكرية.
وبحسب تقرير صحيفة واشنطن بوست، فقد أطلقت وزارة الدفاع، البنتاجون، مشروعًا متقدمًا يُعرف باسم 'Thunderforge' يهدف إلى بناء أنظمة تحليل عسكرية قائمة على الذكاء الاصطناعي يمكنها جمع المعلومات من عشرات المصادر وتحويلها إلى توصيات عملياتية فورية.
ويؤكد التقرير أن هذه التقنيات قد تغيّر مستقبلًا الطريقة التي تُدار بها الحروب، من التخطيط اللوجستي إلى إدارة الأزمات.
لكنّ مراقبين حذروا من أن إدخال أدوات الذكاء الاصطناعي إلى غرف القيادة العسكرية يطرح أسئلة شائكة حول من يتحمّل المسؤولية النهائية عن القرار، في حال أدّت توصيات الخوارزميات إلى نتائج كارثية.
هذا التحوّل، رغم أهميته، قد يعيد تعريف مفهوم 'القائد' ذاته — من إنسان يوجّه آلة، إلى إنسان يتشارك القرار مع خوارزمية.
دوافع التحول نحو الذكاء الاصطناعي العسكري
١. السيطرة على سيل المعلومات
تشير تقارير علمية منشورة على موقع أركايف (arXiv) إلى أن القادة العسكريين اليوم يتعاملون مع كميات هائلة من المعلومات في وقت قياسي، وهو ما يجعل التحليل البشري البحت محدود الكفاءة.
إدخال أدوات اللغة الكبيرة مثل 'شات جي بي تي' يتيح تصفية المعلومات بسرعة 'سرعة الآلة'، ما يُمكّن صانع القرار من الوصول إلى صورة شبه آنية للميدان.
٢. تخفيف العبء الإداري وتسريع التواصل
بحسب موقع سايبر نيوز، تمكّن تايلور من تقليص وقت إعداد التقارير بنسبة 40% بعد دمج الذكاء الاصطناعي في مكتبه القيادي.
كما استخدم النظام لإعادة تنظيم فرق العمل والتنسيق بين الأقسام اللوجستية والاستخباراتية في مهام معقدة، مما زاد من كفاءة الأداء العام.
ويقول تايلور: 'الذكاء الاصطناعي لا يحلّ محل القائد، لكنه يجعل القائد أكثر تركيزًا على الجوهر، وأقل انشغالًا بالتفاصيل الإدارية.'
٣. تجنب “ضباب الحرب المعلوماتي”
وأشار تقرير لصحيفة لوموند الفرنسية يشير إلى أن أهم ميزة تقدمها هذه الأنظمة هي قدرتها على تحديد الأنماط السلوكية للخصوم وتحليل المؤشرات الخفية في سلوك الجيوش أو الجماعات المسلحة، وهو ما قد يقلل من عنصر المفاجأة في النزاعات.
بين المخاطر الأخلاقية والتهديدات التقنية
رغم جاذبية التجربة، إلا أن عددًا من مراكز الفكر في أوروبا والولايات المتحدة حذّرت من مخاطر الاعتماد المفرط على الذكاء الاصطناعي في القرارات العسكرية.
فالنماذج اللغوية مثل 'شات جي بي تي' قد تولّد معلومات مغلوطة تُعرف اصطلاحًا بـ “الهلوسة الرقمية”، ما قد يقود إلى تقديرات خاطئة في أوقات الأزمات.
كذلك، يثير استخدام أدوات تجارية مثل ChatGPT مخاوف بشأن الأمن السيبراني وتسرب المعلومات الحساسة، وهو ما دفع البنتاجون، وفقًا لتقرير واشنطن بوست، إلى بناء نسخ مغلقة وآمنة من هذه الأدوات داخل أنظمته الدفاعية.
لكن ثمة تحذيرات من مخاطر 'السرعة التي تسير بها واشنطن نحو عسكرة الذكاء الاصطناعي' قد تُحدث خللًا في التوازن الأخلاقي بين التكنولوجيا والمسؤولية، مؤكدة أن الاتحاد الأوروبي يميل إلى فرض أطر قانونية صارمة تحكم استخدام هذه الأنظمة في الشؤون العسكرية، وفقًا لصحيفة لوموند الفرنسية.


































