×



klyoum.com
bahrain
البحرين  ٧ أيار ٢٠٢٤ 

قم بالدخول أو انشئ حساب شخصي لمتابعة مصادرك المفضلة

ملاحظة: الدخول عن طريق الدعوة فقط.

تعبر المقالات الموجوده هنا عن وجهة نظر كاتبيها.

klyoum.com
bahrain
البحرين  ٧ أيار ٢٠٢٤ 

قم بالدخول أو انشئ حساب شخصي لمتابعة مصادرك المفضلة

ملاحظة: الدخول عن طريق الدعوة فقط.

تعبر المقالات الموجوده هنا عن وجهة نظر كاتبيها.

موقع كل يوم »

اخبار البحرين

»سياسة» الخليج أونلاين»

"نووي العصر".. هل يهدد الذكاء الاصطناعي مستقبل البشر؟

الخليج أونلاين
times

نشر بتاريخ:  الأثنين ١٠ تموز ٢٠٢٣ - ١١:٣٣

 نووي العصر .. هل يهدد الذكاء الاصطناعي مستقبل البشر؟

"نووي العصر".. هل يهدد الذكاء الاصطناعي مستقبل البشر؟

اخبار البحرين

موقع كل يوم -

الخليج أونلاين


نشر بتاريخ:  ١٠ تموز ٢٠٢٣ 

أشرف كمال - الخليج أونلاين

أكثر من ألف باحث ومتخصص حذروا من تغييرات عميقة محتملة على تاريخ البشر.

هناك دعوات أممية ودولية لوقف تطوير الذكاء الاصطناعي لمدة 6 أشهر؛ من أجل ضبط هذا السباق.

تطبيقاته تمثل خطراً على الخصوصية وعلى زيادة الفجوة بين الدول المتقدمة والنامية.

على الرغم من الخدمات الكبيرة التي يقدمها الذكاء الاصطناعي للبشرية فإن المخاوف تتزايد يوماً بعد يوماً مما يمكن حصوله من هذا النوع من التكنولوجيا على مستقبل البشر وتاريخهم.

ومع التطور الكبير للذكاء الاصطناعي واقتحامه عديداً من المجالات، خصوصاً مع ظهور تقنية 'تشات جي بي' التي مكنت الروبوتات من القيام بكل ما يقوم به البشر من مهمات، فقد تعالت التحذيرات من تأثيرات عميقة قد تحملها هذه التقنيات على البشر.

ضمن أحدث التحذيرات كانت رسالة وقعها 1100 باحث وخبير، من بينهم الملياردير الأمريكي إيلون ماسك، يقولون فيها: إن 'الذكاء الاصطناعي المتقدم يمكن أن يمثل تغييراً عميقاً في تاريخ الحياة على الأرض'.

ودعت الرسالة التي نشرها معهد 'فيوتشر أوف لايف'، أواخر مارس 2023، وحملت توقيع خبراء تكنولوجيا بارزين إلى توقف مؤقت لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي الأكثر تقدماً من 'GPT-4'.

ودعا الموقعون على الرسالة إلى التخطيط الجيد للذكاء الاصطناعي وإدارته بما يتناسب مع الرعاية والموارد، وحذروا من أن مختبرات الذكاء الاصطناعي 'أصبحت خارجة عن السيطرة' لتطوير ذكاء اصطناعي قوي بشكل متزايد لا يمكن لأحد فهمه أو التنبؤ به أو التحكم فيه بشكل موثوق.

مخاطر على البشرية

تحذير الباحثين والخبراء تبعته تصريحات لجيفري هينتون، الملقب بـ'الأب الروحي للذكاء الاصطناعي'، قال فيها إنه يشعر بالأسف حيال دوره الكبير في تطوير تكنولوجيا الذكاء الاصطناعي.

وأعرب هينتون، في تصريحات لصحيفة 'نيويورك تايمز'، نشرتها في 2 مايو 2023، عن تخوفه بشأن سباق الذكاء الاصطناعي الجاري حالياً بين عمالقة التكنولوجيا، وتساءل عما إذا كان الوقت مناسباً للتوقف عن تطوير هذه المنتجات.

ومؤخراً ترك هينتون منصبه في 'غوغل' بعد مسيرة مهنية استمرت عقداً من الزمن في تطوير الذكاء الاصطناعي.

وقال هينتون، الذي ساعدت إسهاماته في مجال الذكاء الاصطناعي منذ عقود في تمهيد الطريق لإنشاء روبوتات المحادثة مثل 'تشات جي بي تي'، إنه قلق الآن من أن التكنولوجيا يمكن أن تضر البشرية.

وأشار إلى أنه غادر غوغل حتى يتمكن من 'التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على غوغل'.

وأضاف أنه قلق من أن تؤدي منتجات الذكاء الاصطناعي التوليدية إلى نشر معلومات وصور ومقاطع فيديو مزيفة عبر الإنترنت، وألا يتمكن الجمهور من تحديد الصحيح من المزيف.

وبيّن أيضاً كيف يمكن لتقنيات الذكاء الاصطناعي بنهاية المطاف القضاء على العمالة البشرية، ومن بينهم المساعدون القانونيون والمترجمون والمساعدون.

وأصدرت مؤسسة 'غولدمن ساك' تقريراً في أبريل الماضي، قدرت فيه أن 300 مليون وظيفة بدوام كامل يمكن أن تتأثر بأنظمة الذكاء الاصطناعي، وتشمل العاملين القانونيين والإداريين، رغم أن مستوى هذا التأثير قد يختلف.

هينتون ليس الوحيد من غوغل الذي تحدث عن مخاطر الذكاء الاصطناعي، فقد نقلت وكالة 'بلومبيرغ' الأمريكية، في تقرير  نشرته في 2 مايو 2023، عن موظفين في الشركة أعربوا عن قلقهم بشأن برنامج الدردشة الآلي الخاص بالشركة.

وقال الموظفون إنهم يعتقدون أن غوغل لا تعطي الأولوية لأخلاقيات الذكاء الاصطناعي، ويحاولون تطوير التكنولوجيا بسرعة لمواكبة برنامج 'تشات جي بي تي'، محذرين من أن هذه التكنولوجيا 'قد تكون خطيرة'.

وجاءت هذه التصريحات بعد تكليف موظفي غوغل باختبار روبوت الدردشة 'بارد تشات بوت' الذي تعمل الشركة على إطلاقه.

نووي العصر الحديث

وفي السياق كتب وليام هيغ مقالاً في صحيفة 'التايمز' البريطانية (4 أبريل 2023)، بعنوان: 'يجب على العالم أن يعي سرعة تطور الذكاء الاصطناعي'.

وشبه الكاتب تقنية 'تشات جي بي تي' اليوم بفكرة تخصيب اليورانيوم التي كانت نواة السباق النووي. وقال إن ما تعيشه البشرية اليوم من صراع بين الولايات المتحدة والصين وروسيا، من أجل تطوير الذكاء الاصطناعي يمثل خطراً على البشرية التي بدأت حياتها تتطور في غضون أسابيع لا سنين.

وذهب الكاتب إلى أن الذكاء الاصطناعي سيغير الحرب والجغرافيا السياسية، وسيغير مئات الملايين من الوظائف، وسيفتح عصراً جديداً يدمج فيه البشر تفكيرهم بشكل وثيق مع تفكير الآلات.

وخلص إلى أن التكيف مع هذا التغير الهائل سيمثل تحدياً هائلاً للمجتمعات والأنظمة السياسية، على الرغم مما يحمله أيضاً من فرص.

وسبق أن حذر المفوض السامي لحقوق الإنسان في الأمم المتحدة، فولكر تورك (18 فبراير 2023)، من أن التقدم الذي تم إحرازه مؤخراً في مجال الذكاء الاصطناعي يمثل خطراً بالغاً على حقوق الإنسان، داعياً إلى وضع 'محاذير فعالة'.

وقال تورك: إن 'كرامة الإنسان وكل حقوق الإنسان في خطر كبير'. ووجه دعوة عاجلة إلى الشركات والحكومات من أجل أن تطور سريعاً 'محاذير فعالة'.

وحضت عشرات الدول، بينها الولايات المتحدة والصين، في فبراير 2023، على وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من 'عواقب غير مرغوب فيها'.

تطور يستدعي وقفة

وأعرب أكثر من 60 دولة عن مخاوف متعلقة بـ'الانخراط البشري، وانعدام الوضوح على صعيد المسؤولية، والعواقب غير المقصودة المحتملة'.

غير أن الذكاء الاصطناعي أصبح حاضراً في كل مجالات الحياة اليومية؛ من الهواتف الذكية إلى الصحة والأمن، وأصبحت ساحة المعركة الجديدة لعمالقة الإنترنت، مع تصدر مايكروسوفت التي تقدمت على كل الشركات المنافسة باستثمار المليارات في تطوير 'تشات جي بي تي'.

ويشي الذكاء الاصطناعي بثورة حقيقية في عمليات البحث على الإنترنت واستخدامات كثيرة أخرى ما زال يتحتم استكشافها.

لكن الخبراء يحذرون من أنه يطرح كذلك مخاطر مثل انتهاك الحياة الخاصة، وخلل في الخوارزميات وغيرها، تستدعي تنظيم هذا القطاع، وهو ما يصعب القيام به في ضوء التطور السريع لهذه التقنيات. وتعتزم ديمقراطيات عديدة وضع تشريعات لهذا القطاع.

في الوقت الحالي، يحتل الاتحاد الأوروبي موقعاً مركزياً في جهود تنظيم هذه التقنيات الجديدة، مع العمل على مشروع قانون يعرف بـ'إيه آي أكت'، أو 'قانون الذكاء الاصطناعي'، قد تنتهي صياغته نهاية العام الحالي أو مطلع 2024، على أن يدخل حيز التنفيذ بعد بضع سنوات.

قيمة كبيرة وخطر أيضاً

الخبير الرقمي وأستاذ إدارة نظم المعلومات عصام الجوهري، قال إن الذكاء الاصطناعي يمثل قيمة كبيرة للبشر كتقنية، لكنه يمثل خطراً داهماً كتطبيقات، مشيراً إلى حتمية وضع إطار أخلاقي لهذه التطبيقات التي قد تنال من مصداقية الكثير من الأشياء.

وفي تصريح لـ'الخليج أونلاين' قال الجوهري إن علم الذكاء الاصطناعي انتشر بشكل واسع جداً، وخصوصاً 'تشات جي بي تي'، إلى جانب تطبيقات تحليل بيانات وسلوكيات المستخدمين، وهي الأخطر في هذا المجال.

وقال الجوهري: إن 'استنباط سلوكيات أو رغبات البشر المستقبلية من خلال تحليل بياناتهم الحالية يمثل أحد أكبر مخاطر الذكاء الاصطناعي، في حين أنه مفيد جداً في عديد من الأمور التي يعجز الإنسان عن القيام بها؛ مثل بعض الجراحات التي تقوم بها الروبوتات، أو الوصول إلى بعض الأماكن بدلاً من البشر'.

ولفت الخبير التقني إلى 'ضرورة وجود إطار أخلاقي وسقف لتطبيقات الذكاء الاصطناعي التي يمكنها سحب البشرية نحو الهاوية، فهي تمهد حالياً لاستبدال البشر بالروبوت، وتتوسع في انتهاك الخصوصية من خلال تحليل السلوكيات المستقبلية للبشر'.

وأضاف: 'من خلال هذه التحليلات يمكن لمجموعات معينة اختيار رؤساء دول أو مسؤولين كبار في دول بعينها من خلال تحليل البيانات والسلوكيات المستقبلية'، لافتاً إلى أن 'هذا التسارع في التطبيقات سيزيد الفجوة بين الدول المتقدمة والدول النامية'.

وخلص إلى أن 'قادة الدول النامية تحديداً عليهم أن ينتبهوا لهذا الخطر الداهم الذي يهدد بإقصاء دولهم، فضلاً عما تقدمه تطبيقات الذكاء الاصطناعي لعالم الجريمة حتى لو من دون قصد عبر المحاكاة وتركيب المحادثات والصور وغيرها'.

 نووي العصر .. هل يهدد الذكاء الاصطناعي مستقبل البشر؟

أخر اخبار البحرين:

طن النحاس يتجاوز 10 آلاف دولار في تعاملات الثلاثاء

* تعبر المقالات الموجوده هنا عن وجهة نظر كاتبيها.

* جميع المقالات تحمل إسم المصدر و العنوان الاكتروني للمقالة.

موقع كل يوم
1

أخبار كل يوم

lebanonKlyoum.com is 1650 days old | 294,040 Bahrain News Articles | 141 Articles in May 2024 | 16 Articles Today | from 18 News Sources ~~ last update: 12 min ago
klyoum.com

×

موقع كل يوم


مقالات قمت بزيارتها مؤخرا



 نووي العصر .. هل يهدد الذكاء الاصطناعي مستقبل البشر؟ - bh
نووي العصر .. هل يهدد الذكاء الاصطناعي مستقبل البشر؟

منذ ثانية


اخبار البحرين

* تعبر المقالات الموجوده هنا عن وجهة نظر كاتبيها.

* جميع المقالات تحمل إسم المصدر و العنوان الاكتروني للمقالة.






لايف ستايل