«معلومات الوزراء» يستعرض أبرز الاعتبارات التنظيمية لاستخدام الذكاء الاصطناعي في مجال الصحة
تاريخ النشر: 3rd, January 2024 GMT
سلَّط المركز الضوء على التقرير الصادر عن «منظمة الصحة العالمية»، بعنوان «الذكاء الاصطناعي يحمل بشائر واعدة لقطاع الصحة، لكن التنظيم هو المفتاح»، والذي يتناول الاعتبارات التنظيمية بشأن استخدام الذكاء الاصطناعي في مجال الصحة، وأهمية التثبت من مأمونية نظم الذكاء الاصطناعي وفعاليتها، وتسريع إتاحة النظم المناسبة لمن يحتاجون إليها، وتعزيز الحوار بين أصحاب المصلحة، بما في ذلك المطورون والهيئات التنظيمية والشركات المصنّعة والعاملون الصحيون والمرضى.
يأتي ذلك في إطار اهتمام مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، برصد وتحليل كل ما هو متعلق بالتقارير الدولية التي تتناول الشأن المصري أو تدخل في نطاق اهتماماته.
وأفاد التقرير بأنه مع تزايد توافر بيانات الرعاية الصحية والتقدم السريع في التقنيات التحليلية، أصبحت منظمة الصحة العالمية تدرك إمكانات الذكاء الاصطناعي في إحداث تحولًا في قطاع الصحة، وذلك في ظل دور الذكاء الاصطناعي في تحسين النتائج الصحية من خلال تعزيز التجارب السريرية، وتحسين التشخيص الطبي والعلاج والرعاية الذاتية والرعاية التي تركز على الشخص، وسد مكامن النقص في معارف ومهارات وكفاءات العاملين في مجال الرعاية الصحية.
ولكن على الرغم من أهمية الذكاء الاصطناعي إلا أنه يحمل تحديات خطيرة، فعند استخدام البيانات الصحية، من المحتمل أن تتمكن أنظمة الذكاء الاصطناعي من الوصول إلى المعلومات الشخصية، مما يستلزم أطر قانونية وتنظيمية قوية لحماية الخصوصية والأمن والنزاهة، بما في ذلك جمع البيانات غير الأخلاقية، وتهديدات الأمن السيبراني، وتضخيم المعلومات المضللة.
وفي هذا الصدد ومن أجل الاستجابة للاحتياجات المتزايدة للدول فيما يتعلق بالإدارة المسؤولة للانتشار السريع لتكنولوجيات الذكاء الاصطناعي المستخدمة في مجال الصحة، فقد أبرز التقرير المجالات الست التي حددتها منظمة الصحة العالمية لتنظيم استخدامات الذكاء الاصطناعي في مجال الصحة وهي كالآتي:
- أهمية الشفافية والتوثيق، وذلك بعدة سبل منها مثلا توثيق دورة حياة المنتج بكاملها وتتبع عمليات التطوير.
- إدارة المخاطر: معالجة مسائل مثل "الاستخدام المقصود" و"التعلم المستمر" والتدخلات البشرية ونماذج التدريب وتهديدات الأمن السيبراني، معالجةً شاملة، مع تبسيط النماذج قدر الإمكان.
- التحقق من صحة البيانات: من مصدر خارجي وتوخي الوضوح بشأن الاستخدام المقصود للذكاء الاصطناعي بما يساعد على ضمان السلامة وتيسير التنظيم.
- الالتزام بجودة البيانات: بسبل منها مثلا التقييم الدقيق للنظم قبل إصدارها، باعتبار ذلك أمرًا ضروريًّا لضمان عدم قيام النظم بتوسيع نطاق انتشار التحيزات والأخطاء.
- التعامل مع التحديات التي تطرحها اللوائح التنظيمية المهمة والمعقدة - مثل اللائحة العامة لحماية البيانات في أوروبا وقانون إخضاع التأمين الصحي لقابلية النقل والمساءلة في الولايات المتحدة الأمريكية مع التركيز على فهم نطاق الولاية ومتطلبات الموافقة، من أجل صون الخصوصية وحماية البيانات.
- تعزيز التعاون بين الهيئات التنظيمية والمرضى والمتخصصين في الرعاية الصحية وممثلي الصناعة والشركاء الحكوميين: وهو ما من شأنه المساعدة في ضمان امتثال المنتجات والخدمات للوائح طوال دورات حياتها.
وأوصى التقرير بضرورة وضع لوائح أفضل بشأن استخدام الذكاء الاصطناعي، والالتزام بجودة البيانات لضمان عدم تضخيم الأنظمة للتحيزات والأخطاء.
المصدر: الأسبوع
كلمات دلالية: الذكاء الاصطناعي الصحة الصحة العالمية مجلس الوزراء معلومات الوزراء منظمة الصحة العالمية الذکاء الاصطناعی فی فی مجال الصحة
إقرأ أيضاً:
تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
أسس فريق من باحثي معهد ماساتشوستس للتكنولوجيا (MIT)، Themis AI لقياس عدم اليقين في نماذج الذكاء الاصطناعي ومعالجة فجوات المعرفة.
تُقدم أنظمة الذكاء الاصطناعي، مثل ChatGPT، إجاباتٍ تبدو معقولة لأي سؤال قد يطرح عليها. لكنها لا تكشف دائمًا عن ثغراتٍ في معارفها أو جوانبَ عدم اليقين فيها.
وقد تُسفر هذه المشكلة عن عواقب وخيمة مع تزايد استخدام أنظمة الذكاء الاصطناعي في مجالاتٍ مثل تطوير الأدوية، وقيادة السيارات ذاتية القيادة.
والآن، تُساعد Themis AI في تحديد عدم اليقين في النماذج وتصحيح النتائج قبل أن تُسبب مشاكل أكبر. ويمكن لمنصة Capsa التابعة للشركة العمل مع أي نموذج تعلُّم آلي للكشف عن النتائج غير الموثوقة وتصحيحها في ثوانٍ. وتعمل المنصة عن طريق تعديل نماذج الذكاء الاصطناعي لتمكينها من اكتشاف الأنماط في معالجة البيانات التي تُشير إلى الغموض أو عدم الاكتمال أو التحيز.
تقول دانييلا روس، المؤسس المشارك لشركة Themis AI والأستاذة في معهد ماساتشوستس للتكنولوجيا، والتي تشغل أيضًا منصب مديرة مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا "الفكرة هي أخذ نموذج، ودمجه في Capsa، وتحديد أوجه عدم اليقين وأنماط فشل النموذج، ثم تحسينه"، مضيفة "نحن متحمسون لتقديم حل يُحسّن النماذج ويضمن عملها بشكل صحيح".
أسست روس شركة Themis AI عام 2021 بالتعاون مع زميلي بحث سابقين في مختبرها. ومنذ ذلك الحين، ساعدوا شركات الاتصالات في تخطيط الشبكات وأتمتتها، وساعدوا شركات النفط والغاز على استخدام الذكاء الاصطناعي لفهم الصور الزلزالية، ونشروا أبحاثًا حول تطوير روبوتات دردشة أكثر موثوقية.
يقول ألكسندر أميني، أحد الرؤساء المشاركين "نريد تمكين الذكاء الاصطناعي في التطبيقات الأكثر أهمية في كل قطاع". ويضيف "رأينا جميعًا أمثلة على هلوسة الذكاء الاصطناعي أو ارتكابه للأخطاء. ومع اتساع نطاق استخدام الذكاء الاصطناعي، قد تؤدي هذه الأخطاء إلى عواقب وخيمة. يُمكّن ثيميس أي ذكاء اصطناعي من التنبؤ بأخطائه قبل وقوعها".
مساعدة النماذج على معرفة ما تجهله
يبحث مختبر روس في عدم اليقين في النماذج منذ سنوات. في عام 2018، حصلت على تمويل لدراسة موثوقية حل قيادة ذاتية قائم على التعلم الآلي. تقول روس "هذا سياق بالغ الأهمية للسلامة، حيث يُعد فهم موثوقية النموذج أمرًا بالغ الأهمية".
في عمل منفصل، طوّر روس وأميني وزملاؤهما خوارزمية يمكنها اكتشاف التحيز العنصري والجنسي في أنظمة التعرف على الوجه، وإعادة وزن بيانات تدريب النموذج تلقائيًا، مما يُظهر أنها أزالت التحيز. عملت الخوارزمية من خلال تحديد الأجزاء غير المُمثلة من بيانات التدريب الأساسية، وتوليد عينات بيانات جديدة ومتشابهة لإعادة توازنها.
في عام 2021، أظهر المؤسسون المشاركون إمكانية استخدام نهج مماثل لمساعدة شركات الأدوية على استخدام نماذج الذكاء الاصطناعي للتنبؤ بخصائص الأدوية المرشحة. وأسسوا شركة Themis AI في وقت لاحق من ذلك العام.
تؤكد روس "قد يوفر توجيه اكتشاف الأدوية الكثير من المال. كانت هذه هي حالة الاستخدام التي جعلتنا ندرك مدى قوة هذه الأداة".
تعمل Themis AI اليوم مع شركات في مجموعة متنوعة من الصناعات، والعديد من هذه الشركات تبني نماذج لغوية ضخمة. باستخدام Capsa، تتمكن هذه النماذج من تحديد مستوى عدم اليقين الخاص بها لكل ناتج.
يعتقد فريق "ثيميس" للذكاء الاصطناعي أن الشركة في وضع جيد لتحسين أحدث تقنيات الذكاء الاصطناعي المتطورة باستمرار.