في خطوة تُمهّد لعصر جديد من التشخيص الدقيق والعلاج الموجّه، أعلنت إدارة الغذاء والدواء الأميركية (FDA) منح شركة "روش" السويسرية تصنيف "ابتكار ثوري" لاختبار جديد لسرطان الرئة يعتمد على الذكاء الاصطناعي.

ويأتي هذا الإنجاز وسط سباق عالمي لتوظيف تقنيات الذكاء الاصطناعي في دعم قرارات الأطباء، وتحديد المرضى الأكثر استفادة من العلاجات الحديثة بدقة غير مسبوقة.




اقرأ أيضاً.. حين يرى الذكاء الاصطناعي ما لا يراه الطبيب.. قفزة في تشخيص قصر النظر

 



تشخيص دقيق عبر صور مجهرية وبروتينات مرتبطة بالورم




يستخدم النظام أدوات طبية رقمية وخوارزميات ذكاء اصطناعي لتحليل الصور بشكل دقيق، ويقدّم نتيجة رقمية تساعد الأطباء على اتخاذ قرار بشأن إمكانية استخدام دواء يُعرف باسم "Datroway"، وهو علاج جديد لا يزال قيد المراجعة لبعض حالات سرطان الرئة، بعد حصوله سابقًا على موافقة لعلاج نوع من سرطان الثدي.

الاختبار يختلف عن الطرق التقليدية التي تكتفي بقياس البروتين على سطح الخلية، حيث يقوم أيضًا بقياس وجوده داخل الخلية، مما يمنح تقييمًا أكثر دقة لحالة المريض.

أخبار ذات صلة "مايكروسوفت".. نماذج صغيرة تنافس عمالقة الذكاء الاصطناعي جناح «تريندز» في «أبوظبي للكتاب» يناقش الثقافة والذكاء الاصطناعي ويطلق كتابين

اقرأ أيضاً.. العين نافذة الذكاء الاصطناعي للكشف المبكر عن الخرف


ذكاء اصطناعي يوجه القرار الطبي نحو العلاج الأنسب




يأتي هذا التوجه بعد أن أظهرت دراسة سابقة أن بعض المرضى يستجيبون للعلاج بشكل أفضل من غيرهم، ما دفع الشركات إلى البحث عن أدوات تساعد في اختيار المرضى المناسبين للعلاج بدقة أعلى.

 

حتى الآن، لم يتم تحديد موعد استخدام هذا الاختبار في العيادات، لكن تصنيفه كـ"ابتكار" يعني أن عملية مراجعته واعتماده قد تكون أسرع من المعتاد وفق ما وصفه موقع الشركة.



إسلام العبادي(أبوظبي)

المصدر: صحيفة الاتحاد

كلمات دلالية: السرطان سرطان الرئة الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • الذكاء لم يعد اصطناعيًا فقط.. زوكربيرج يكشف المستور
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا
  • اختبار منزلي قد يغيّر مستقبل تشخيص سرطان الجلد| ما هو؟
  • أداة ذكاء اصطناعي جديدة لتشخيص ورعاية فشل القلب
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ