بوابة الوفد:
2025-07-30@06:29:08 GMT

كارثة طبية مستمرة

تاريخ النشر: 6th, June 2024 GMT

الأخطاء فى تشخيص إصابة مريض ما بالمرض، إحدى المشكلات الصحية التى لا تزال تستدعى مزيدا من اهتمام الأنظمة الصحية, ووفق التعريف الطبى فإن أخطاء التشخيص Diagnostic errors هى تفويت فرصة التوصل إلى التشخيص الصحيح للمرض الذى يُعانى منه المريض فى الوقت المناسب، أو عدم الوصول إلى ذلك التشخيص الصحيح، أو تقرير تشخيص خاطئ للمرض.

وتتعدد البلاغات المقدمة ضد بعض الأطباء الذين يخطئون فى تشخيص الأمراض، ويتعاملون بإهمال مع الحالات المرضية التى يستقبلونها. ووفق للمجلة الطبية البريطانية للجودة والسلامة BMJ Quality & Safety، فإن نحو 12 مليون شخص بالغ فى الولايات المتحدة يعانون سنويا من هذه المشكلة الصحية خلال مراجعتهم لعيادات الأطباء فى الولايات المتحدة. وحملت هذه الدراسة عنوان «وتيرة أخطاء التشخيص فى العيادات الخارجية: التقديرات من واقع نتائج ثلاث دراسات شملت البالغين فى الولايات المتحدة». وهذه الدراسات الثلاث لم تقتصر على نتائج مراجعات المرضى للعيادات الخارجية لطب الأسرة والمجتمع أو عيادات الأطباء العامون، بل أيضا عيادات خارجية حساسة مثل عيادات الأورام السرطانية فى القولون و عيادات الأورام السرطانية فى الرئة.

وفى نتائج جميع تلك الدراسات الطبية الثلاث، تم توثيق الأخطاء فى تشخيص الإصابات المرضية، وأكد الباحثون من مركز مايكل دبجى الطبى بهيوستن، فى نتائج الدراسة الحديثة أن نحو 50 % من تلك الأخطاء فى التشخيص التى تم توثيقها، يمكن بالفعل تصنيفها بأنها «أضرّت المرضى بشكل بالغ الأذى». وتحدث الباحثون تحديدا عن أخطاء من نوعية تأخير تشخيص الإصابة بالأورام السرطانية، وبالتالى تأخير البدء بمعالجتها بشكل فاعل ومفيد للمرضى، وهو على حد قول الباحثين ما قد يُؤدى إلى جعل نجاح المعالجة صعبة جدا وترك المجال للمرض السرطانى ليقضى على المريض.

وكانت نفس المجلة الطبية قد نشرت فى عام 2013 نتائج دراسة الباحثين من كلية جونز هوبكنز للطب بالولايات المتحدة التى تم فيها مراجعة 25 سنة من تراكمات دعاوى الأخطاء الطبية وتكاليفها المادية، ووجد الباحثون أن أخطاء التشخيص للأمراض التى يُعانى المرضى منها كانت الأعلى فى تكاليف التعويضات المادية لدعاوى المرضى أمام المحاكم، ليس هذا فقط، بل وجدها الباحثون، أى أخطاء التشخيص، الأعلى فى التسبب بالإعاقات والوفيات بين أوساط المرضى، وتحديدا أفاد الباحثون أن التكاليف المادية لدعاوى المرضى بلغت نحو 40 مليار دولار ما بين عامى 1986 و2010، كما يُصاب فى كل عام ما بين 80 ألفا إلى 160 ألف شخص بإعاقات مستديمة Permanent Disabilities جراء أخطاء فى التشخيص.

ويموت حوالى 371 ألف شخص، ويعانى 424 ألفًا آخرين، من إعاقات دائمة مثل تلف الدماغ، أو العمى، أو فقدان الأطراف، أو الأعضاء، أو انتشار السرطان، سنويًا كنتيجة لذلك.

وترتبط نسبة 40٪ من تلك التبعات الخطيرة التى تشمل الوفاة والإعاقة الدائمة، بأخطاء فى تشخيص مجموعة من خمس حالات: السكتة الدماغية، والإنتان (تسمّم الدم)، والالتهاب الرئوي، والجلطات الدموية الوريدية، وسرطان الرئة.

وقال الخبراء إن الأخطاء التشخيصية عادة ما تكون نتيجة عزو أعراض غير محددة إلى شيء أكثر شيوعًا وربما أقل خطورة من الحالة التى تسبب ذلك فى الواقع.

وتشكل القضايا النظامية الأوسع فى نظام الرعاية الصحية تحديًا فى هذه العملية.

وينص عليه قانون العقوبات فى مثل تلك الحالات، التى غالبا ما تؤدى إلى عاهات مستديمة.

ويوضح قانون العقوبات، أن عقوبة الإهمال الطبى تعتبر «جنحة» وليست جناية، وتتراوح عقوبتها بين الحبس سنة و3 سنوات بحد أقصى، وفقا لظروف وملابسات الواقعة.

وتعد وقائع الإهمال الطبى، من الوقائع التى يصعب اكتشافها وإثبات الجريمة على الطبيب أو المستشفى الصادر ضدهم البلاغ، حيث إن تقرير الطب الشرعى هو العامل الوحيد المحرك لتلك القضايا، وبنسبة 80% يفشل فى تحديد سبب الوفاة وينسبها أنها نتيجة مضاعفات للعملية التى تم إجرائها.

حدث ذلك معى وسيحدث مع آخرين، فهل من حل؟.

[email protected]

المصدر: بوابة الوفد

كلمات دلالية: صلاح صيام ندى المشكلات الصحية أخطاء فى

إقرأ أيضاً:

نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم

أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.

إجابات متغيرة بناء على هوية المستخدم

وجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم. على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.

يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟جوجل: الذكاء الاصطناعي يغير قواعد اللعبة.. وGemini يحصد الملايين

وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.

التأثيرات الخطيرة على نصائح الصحة والقانون

أظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية. 

فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.

كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.

التحيزات الخفية في الذكاء الاصطناعي

من المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.

دعوة لمراجعة الأساليب وأدوات مكافحة التحيز

دعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال. 

وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.

نتائج الدراسة: التحيزات على أساس العرق والجنس

أظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.

التأثيرات على الرواتب والنصائح الطبية

فيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.

أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT. 

ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.

توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.

طباعة شارك الذكاء الاصطناعي إجابات متغيرة نماذج الذكاء الاصطناعي

مقالات مشابهة

  • دراسات علمية جديدة تتوصل لعلاج جديد لمرضى السكري يظهر نتائج واعدة
  • جوتيريش يحذر من كارثة إنسانية مروّعة في غزة
  • هل نجح الباحثون الأردنيون في توثيق هوية القدس وحمايتها معرفيا؟
  • “أخطاء الممارسة الطبية في علاج الأطفال”… محاضرة في نقابة أطباء حلب
  • لا شمس، لا طعام: الكابوس القادم مع “الشتاء النووي”
  • أخطاء شائعة في التعامل مع نوبات غضب الأطفال
  • تحذيرات أممية من كارثة إنسانية في السودان وغزة: الجوع يتحول إلى سلاح فتاك
  • نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
  • يعيد إنتاج الإنسولين.. علاج جديد للسكري يظهر نتائج واعدة
  • والد التوأم السوري: الفريق الطبي قدم رعاية طبية ومتابعة مستمرة