اخبار مصر
موقع كل يوم -صدى البلد
نشر بتاريخ: ١٤ تموز ٢٠٢٣
طلبت اللجنة التجارة الفيدرالية (FTC) من شركة الذكاء الاصطناعي OpenAI تقديم معلومات حول التدابير التي تتخذها الشركة لمعالجة المخاطر المحتملة التي يتعرض لها المستخدمون لتقنية ChatGPT والحصول على معلومات غير صحيحة.
ووفقا لهيئة الإذاعة البريطانية، تعد هذه الخطوة تأكيدًا على التزايد في الرقابة التنظيمية للتكنولوجيا، حيث يتم اعتبار تقنيات الذكاء الاصطناعي المستندة إلى الحصول على النصوص قد تتضمن مخاطر كبيرة.
googletag.cmd.push(function() { googletag.display(sadabody6); });
وبالفعل تعمل شركة OpenAI على تطوير تقنية ChatGPT التي تمكن المستخدمين من الحصول على ردود آلية دقيقة وشبيهة بالبشر على استفساراتهم في وقت قصير.
ومن المتوقع أن يؤثر استخدام هذه التقنية وتقنيات الذكاء الاصطناعي المماثلة بشكل كبير على طريقة الحصول على المعلومات عبر الإنترنت.
تنافس العديد من الشركات في مجال التكنولوجيا لتقديم منتجاتها الخاصة في هذا النطاق، وهو ما يثير جدلاً واسعًا، ويتضمن الجدل مسائل حول استخدام البيانات ودقة الردود المولدة، بالإضافة إلى تساؤلات حول مدى احترام الشركات لحقوق المؤلفين أثناء تدريب تقنياتها.
وتتساءل لجنة التجارة الفيدرالية في خطابها عن الإجراءات التي اتخذتها شركة OpenAI لمعالجة المخاطر المحتملة لتوليد بيانات زائفة أو مضللة أو مهينة أو ضارة عن أفراد حقيقيين.
بالإضافة إلى ذلك، تدرس اللجنة أيضًا سياسة خصوصية البيانات لدى OpenAI وكيفية الحصول على هذه البيانات واستخدامها في تدريب وتطوير تقنيات الذكاء الاصطناعي.
من المهم أن يتعاون المنظمون والشركات المعنية معًا لتحقيق التوازن بين التطور التكنولوجي وحماية المستهلكين وضمان نزاهة وجودة المعلومات المقدمة من خلال تقنيات الذكاء الاصطناعي المتقدمة.
وأفاد أحد مسؤولي شركة OpenAI، بأنّ شركتهم قضت سنوات في أبحاث السلامة والتأكد من توافق ChatGPT مع المعايير الأمنية قبل إطلاقها.
وأضاف عبر حسابه على تويتر أنّ الشركة تحرص على حماية خصوصية المستخدمين وتصميم أنظمتها للتعرف على العالم وليس الأفراد. وأكد أن الشركة تعمل بالتعاون مع لجنة التجارة الفيدرالية وتلتزم بالقوانين والتشريعات المنظمة لصناعة الذكاء الاصطناعي.