في حين أن الذكاء الاصطناعي يمكن أن يكون أداة قوية يستطيع الأطباء استخدامها للمساعدة في تشخيص الأمراض، ولديه إمكانات كبيرة لتحسين الدقة والكفاءة وسلامة المرضى، إلا أن له عيوبه. فقد يشتت انتباه الأطباء، ويمنحهم ثقة مفرطة في الإجابات التي يقدمها، بل وقد يؤدي بهم إلى فقدان الثقة في حكمهم التشخيصي الخاص.
لضمان دمج الذكاء الاصطناعي بشكل صحيح في ممارسات الرعاية الصحية، قدم فريق بحثي إطار عمل يتألف من خمسة أسئلة توجيهية تهدف إلى دعم الأطباء في رعاية مرضاهم دون تقويض خبراتهم من خلال الاعتماد المفرط على الذكاء الاصطناعي.

وقد نُشر هذا الإطار مؤخرًا في مجلة الجمعية الأميركية للمعلوماتية الطبية (Journal of the American Medical Informatics Association) الخاضعة لمراجعة الأقران.
تنتقل هذه الورقة البحثية بالنقاش من مدى جودة أداء خوارزمية الذكاء الاصطناعي إلى كيفية تفاعل الأطباء فعليًا مع الذكاء الاصطناعي أثناء التشخيص. توفر هذه الورقة إطار عمل يدفع المجال إلى ما هو أبعد من سؤال "هل يمكن للذكاء الاصطناعي اكتشاف المرض؟" إلى سؤال "كيف ينبغي للذكاء الاصطناعي دعم الأطباء دون تقويض خبراتهم؟" تُعدّ إعادة صياغة هذا المفهوم خطوة أساسية نحو تبني الذكاء الاصطناعي بشكل أكثر أمانًا وفعالية في الممارسة السريرية".
اقرأ أيضا... الذكاء الاصطناعي يحل لغزًا يتعلق بمرض "كرون"
الأسئلة الضرورية
لا أحد يعرف على وجه اليقين سبب فشل لبذكاء الاصطناعي في تحسين عملية اتخاذ القرارات التشخيصية عند تطبيقها في الممارسة السريرية.
لمعرفة السبب، يقترح الباحثون خمسة أسئلة لتوجيه البحث والتطوير لمنع الأخطاء التشخيصية المرتبطة بالذكاء الاصطناعي. هذه الأسئلة هي:
- ما نوع وتنسيق المعلومات التي يجب أن يقدمها الذكاء الاصطناعي؟
- هل يجب تقديم هذه المعلومات فورًا، بعد المراجعة الأولية، أم يجب أن يتحكم الطبيب في تشغيلها وإيقافها؟
- كيف يوضح نظام الذكاء الاصطناعي كيفية وصوله إلى قراراته؟
- كيف يؤثر على التحيز والرضا الذاتي؟
- وأخيرًا، ما هي مخاطر الاعتماد طويل الأمد عليه؟
تُعدّ هذه الأسئلة مهمة لأن:
- تنسيق المعلومات يؤثر على انتباه الأطباء ودقة التشخيص والتحيزات التفسيرية المحتملة.
- يمكن أن تؤدي المعلومات الفورية إلى تفسير متحيز، بينما قد تساعد الإشارات المتأخرة في الحفاظ على المهارات التشخيصية من خلال السماح للأطباء بالمشاركة بشكل كامل في عملية التشخيص.
- يمكن أن يبرز نظام الذكاء الاصطناعي كيفية وصوله إلى القرار، مما يسلط الضوء على الميزات التي أُخذت في الاعتبار أو استُبعدت، وتقديم تفسيرات افتراضية، والتوافق بشكل أكثر فعالية مع التفكير السريري للأطباء.
- عندما يعتمد الأطباء بشكل كبير على الذكاء الاصطناعي، قد يقل اعتمادهم على تفكيرهم النقدي، مما قد يؤدي إلى تفويت التشخيص الدقيق.
- الاعتماد طويل الأمد على الذكاء الاصطناعي قد يؤدي إلى تآكل قدرات الطبيب التشخيصية المكتسبة.
تتمثل الخطوات التالية نحو تحسين الذكاء الاصطناعي للأغراض التشخيصية في تقييم التصاميم المختلفة في البيئات السريرية، ودراسة كيفية تأثير الذكاء الاصطناعي على الثقة واتخاذ القرارات، ومراقبة تطور مهارات الأطباء عند استخدام الذكاء الاصطناعي في التدريب والممارسة السريرية، وتطوير أنظمة تقوم بتعديل طريقة مساعدتها للأطباء تلقائيًا.
وقالت الدكتورة جوان ج. إلمور، المؤلفة الرئيسية للدراسة، أستاذة الطب في قسم الطب الباطني العام في كلية ديفيد جيفن للطب بجامعة كاليفورنيا في لوس أنجلوس "يتمتع الذكاء الاصطناعي بإمكانيات هائلة لتحسين دقة التشخيص وكفاءته وسلامة المرضى، ولكن سوء التكامل قد يجعل الرعاية الصحية أسوأ بدلاً من تحسينها".
وتضيف إلمور "من خلال تسليط الضوء على العوامل البشرية مثل التوقيت والثقة والاعتماد المفرط وتآكل المهارات، يؤكد عملنا على ضرورة تصميم الذكاء الاصطناعي للعمل مع الأطباء، وليس استبدالهم. هذا التوازن بالغ الأهمية إذا أردنا أن يعزز الذكاء الاصطناعي الرعاية دون إدخال مخاطر جديدة".
مصطفى أوفى (أبوظبي)

أخبار ذات صلة بريطانيا تستعد لاستثمار ضخم في الذكاء الاصطناعي "أدنوك" و"مايكروسوفت" تنشران النسخة الثانية من تقرير "تعزيز الإمكانات"

المصدر: صحيفة الاتحاد

كلمات دلالية: تشخيص الأمراض الأطباء الذكاء الاصطناعي الرعاية الطبية الذکاء الاصطناعی

إقرأ أيضاً:

الموافقة الأوتوماتيكية للذكاء الاصطناعي.. مخاطر غير متوقعة على المستخدم

صراحة نيوز -كشفت دراسة حديثة أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي تميل إلى التأييد الأوتوماتيكي للمستخدمين حتى عند وجود خطأ في آرائهم، ما يثير مخاوف حول التأثير النفسي والاجتماعي لهذه التكنولوجيا.

وشملت الدراسة تحليل 11 نموذجًا من نماذج المحادثة الذكية، منها ChatGPT من OpenAI، وClaude من Anthropic، وGemini من Google، بالإضافة إلى نماذج مثل DeepSeek.

وتشير الظاهرة، التي أطلق عليها الباحثون اسم الموافقة الزائدة (Overalignment)، إلى ميل النماذج إلى قبول أو تأييد المستخدمين دون نقد، حتى عندما تكون وجهة نظرهم خاطئة. وقد يؤدي ذلك إلى تشويه تصور المستخدم لذاته أو للعالم من حوله، ودفعه بعيدًا عن خطوات تصحيحية أو عقلانية.

واختبر الباحثون هذه النماذج على 504 مسائل رياضية تتضمن أخطاء مقصودة، لملاحظة مدى اكتشاف النماذج للخطأ أو قبولها بما عرضه المستخدم. وأظهرت النتائج أن نموذج OpenAI ‎GPT-5 كان الأقل عرضة للموافقة الزائدة بنسبة 29%، بينما سجل DeepSeek نحو 70% من حالات التأييد المفرط.

وأشار الباحثون إلى أن النماذج غالبًا ما تكتشف الخطأ لكنها تختار تصديق المستخدم بدل تصحيحه، مما يعكس اعتمادًا مفرطًا على المعلومات المقدمة من الإنسان.

وتحذر الدراسة من أن الاعتماد على روبوتات الدردشة للحصول على نصائح شخصية أو اجتماعية قد يقود المستخدمين إلى قرارات خاطئة، ويضعف قدرتهم على تقييم أنفسهم ومحيطهم.

ويطالب الباحثون بضرورة تعزيز خصائص النماذج التي تشجع على النقد والمناقشة بدل التأييد الأعمى، وإجراء دراسات إضافية لتقييم تأثير الموافقة الزائدة على السلوك البشري طويل الأمد.

مقالات مشابهة

  • مختص يكشف أبرز الفرص التي يمكن أن يتيحها الذكاء الاصطناعي للاقتصاد السعودي
  • أورنج الأردن ترعى هاكاثون المفرق للذكاء الاصطناعي 2025
  • كيف يمكن خداع الذكاء الاصطناعي وتوجيهه عبر “تسميم” بياناته؟
  • 5 أسئلة تغيّر علاقة الأطباء بالذكاء الاصطناعي
  • الذكاء الاصطناعي ينافس الأطباء في منع السكري قبل ظهوره
  • الموافقة الأوتوماتيكية للذكاء الاصطناعي.. مخاطر غير متوقعة على المستخدم
  • «جي 42» و«سيسكو» تطوران مجمّعاً متقدماً للذكاء الاصطناعي
  • أمريكا تراهن على AMD لتطوير جيل جديد من الحواسيب العملاقة للذكاء الاصطناعي
  • الذكاء الصطناعي ينافس الأطباء في منع السكري قبل ظهوره