اخبار السعودية
موقع كل يوم -جريدة الرياض
نشر بتاريخ: ٤ أيلول ٢٠٢٥
د. بتلاء الصويان
شهد استخدام الذكاء الاصطناعي في مجال أبحاث التقنية الحيوية، كما في غيره من المجالات، اهتماماً متزايداً نظراً لما يتيحه من مزايا، أبرزها تسريع عملية البحث العلمي ونقل توجهات طبية معقدة مثل العلاج الجيني من الإطار النظري إلى واقع عملي.
كما أنه في المملكة، قطع قطاع البحث والابتكار شوطاً كبيراً في حوكمة المشاريع العلمية، حيث تنتشر على مستوى الجامعات ومراكز الأبحاث لجان عالية المستوى مكرسة لضمان أفضل الممارسات الأخلاقية في الأبحاث الحيوية والطبيةً، كما وتخضع أعمالها لإشراف وطني منظم. بالمقابل ورغم أنه، عبر الهيئة السعودية للبيانات والذكاء الاصطناعي، تم إرساء أسس شاملة لحوكمة استخدام الذكاء الاصطناعي، إلا أن وجود لجان مستقلة لمراجعة أخلاقيات استخدام الذكاء الاصطناعي في البحث العلمي على المستوى المؤسسي لم يصبح بعد ممارسة معيارية.
بالطبع هناك قضايا جوهرية يجب التعامل معها عند استخدام الذكاء الاصطناعي في الأبحاث العلمية بشكل عام وفي أبحاث التقنية الحيوية بشكل خاص. لعل من أبرزها أولا، قضايا أمن البيانات وكيفية استخدامها. ثانياً، التحيز الخوارزمي، والذي قد يؤدي إلى نتائج مضللة. ثالثاً، قابلية التفسير والشفافية، وهو أمر بالغ الأهمية خصوصاً في الأبحاث الطبية. إذ لا بد أن تكون مخرجات النماذج قابلة للتفسير حتى يمكن الاعتماد عليها في تطبيقات الرعاية الصحية. أما التحدي الرابع، هناك مسألة المساءلة ومن يتحمل المسؤولية عندما ينتج نظام الذكاء الاصطناعي نتائج خاطئة؟ هل هو الباحث الذي استخدم النظام؟ أم مطوّر الخوارزمية؟
من القضايا الجوهرية أيضا هي قضية التأليف العلمي. فالنماذج الذكية التي تُستخدم في توليد الفرضيات أو صياغة الأوراق العلمية تعتمد على تدريب نفسها على كم هائل من الأبحاث المنشورة مسبقاً. مثلا، عندما يستخدم الباحث الذكاء الاصطناعي لتوليد فرضية جديدة حول مسار جيني معيّن، فإن النموذج لم يبتكر هذه الفرضية من العدم، بل استند إلى آلاف الأوراق التي نشرها علماء آخرون على مدار عقود. أن الذكاء الاصطناعي قد يُنتج نصوصاً أو فرضيات يصعب تتبّع مصادرها بدقة. وبالتالي، من دون “بصمة الاستشهاد”، يصبح من الصعب التأكد من أن جميع المساهمات الأصلية قد أُشير إليها. هذا التحدي ليس نظرياً، فقد بدأت بالفعل بعض المجلات العلمية بوضع سياسات واضحة تمنع إدراج الذكاء الاصطناعي كمؤلف، وتلزم الباحثين بالكشف عن مدى استخدامهم للأدوات الذكية في كتاباتهم العلمية.
كما أنه من أبرز التحديات المرتبطة باستخدام الذكاء الاصطناعي في أبحاث التكنولوجيا الحيوية تأثيره على طبيعة المخرجات العلمية. نشهد اليوم انتقال الباحثين، بما في ذلك الأكاديميين، من المختبرات التقليدية التي تعتمد على التجارب المخبرية وإنتاج البيانات الأولية، إلى المختبرات الرقمية التي تعتمد على تحليل البيانات ونماذج الذكاء الاصطناعي. هذه النقلة تسهم في زيادة الإنتاج العلمي والنشر، مما يدعم التقدم الوظيفي الأكاديمي. ولكن يبقى السؤال: إذا لم تقم المؤسسات الأكاديمية، التي تُعد المصدر الأساسي للمعرفة العلمية الأساسية، بإنتاج بيانات باستخدام التجارب الواقعية مثل الخلايا والنماذج الحيوانية، فهل كان بالإمكان تدريب هذه النماذج أصلاً؟ وإذا توقفت هذه التجارب، فمن أين ستأتي البيانات اللازمة لتطوير النماذج؟ قد نجد أنفسنا بعد عقد من الزمن أمام فجوة في البيانات الأصلية، مما يضعف جودة الابتكارات ويؤثر بشكل كبير على التقدم العلمي المستقبلي.
قطاع أبحاث التكنولوجيا الحيوية هو قطاع عالي الحوكمة، ويجب أن يظل كذلك. في معظم المعاهد البحثية في المملكة، توجد لجان مؤسسية لأخلاقيات البحث العلمي مثل لجان مراجعة البحوث على البشر، ولجان رعاية واستخدام الحيوان. تلعب هذه اللجان دور محوري في صون سلامة المشاركين في البحث، وضمان النزاهة العلمية، ومنع الممارسات غير الاخلاقية، بما ينعكس على جودة المخرجات البحثية وأمن المجتمع. بالمثل، هناك حاجة لوجود لجان محلية متخصصة في أخلاقيات استخدام الذكاء الاصطناعي، خاصة في المؤسسات البحثية التي تعتمد بشكل واسع على هذه التقنيات في أبحاثها. إذ تتيح هذه اللجان مراجعة المشاريع كلٌ حسب سياقه، وضمان توافقها مع الأطر الوطنية المعتمدة، كما تسهم هذه اللجان في ضمان جودة المخرجات العلمية وتحقيق التوازن بين مختلف جوانب البحث العلمي، وصولاً إلى إنتاج معرفة تعزز صحة الإنسان وتخدم المجتمع.