الذكاء الاصطناعي يتفوق في المجال الطبي
تاريخ النشر: 1st, July 2025 GMT
أعلنت شركة مايكروسوفت عن تطوير أداة طبية تعتمد على الذكاء الاصطناعي، تدّعي أنها تتفوق بأربع مرات على الأطباء في تشخيص الأمراض المعقدة، في خطوة قد تسرّع من وتيرة العلاج وتخفف الضغط عن أنظمة الرعاية الصحية.
الأداة المسماة «Microsoft AI Diagnostic Orchestrator» هي أول مبادرة تصدر عن وحدة الذكاء الاصطناعي الصحية التي أُنشئت العام الماضي بقيادة مصطفى سليمان، المؤسس المشارك السابق لـ DeepMind، المختبر البحثي الذي أسسه ويملكه الآن منافس مايكروسوفت، جوجل.
في مقابلة مع صحيفة فايننشال تايمز، وصف المدير التنفيذي لوحدة الذكاء الاصطناعي في مايكروسوفت التجربة بأنها خطوة نحو «ذكاء طبي فائق» قد يساهم في حل أزمات نقص الموظفين وفترات الانتظار الطويلة في المستشفيات.
سلسلة النقاش
تعتمد التقنية على ما يسمى بـ «المنسق» الذي يجمع لجنة افتراضية مكونة من خمسة وكلاء ذكاء اصطناعي يمثلون أدوارًا مختلفة كالافتراضات العلمية واختيار الفحوصات التشخيصية، ويتحاورون ويتناقشون لاختيار أفضل مسار للعمل.
اختبر الباحثون الأداة عبر تزويدها بـ 304 دراسات من مجلة نيو إنجلاند الطبية «NEJM» تناولت حالات طبية معقدة حُلت بواسطة الأطباء. باستخدام تقنية جديدة تسمى «سلسلة النقاش»، قدم الذكاء الاصطناعي تحليلًا مفصلًا خطوة بخطوة لكيفية الوصول إلى التشخيص.
استُخدمت نماذج لغوية كبيرة متقدمة من OpenAI، Meta، Anthropic، Google، xAI وDeepSeek، حيث حسّن المنسق أداء جميع النماذج، وكان أفضلها نموذج OpenAI o3، الذي تمكن من حل 85.5% من الحالات بشكل صحيح، مقابل حوالي 20% فقط لدى الأطباء البشر المشاركين في التجربة، رغم أن الأطباء لم يسمح لهم بالاستعانة بالكتب أو زملائهم، مما كان قد يزيد من دقة تشخيصاتهم.
مستقبل التشخيص الطبي
من المتوقع أن تُدمج هذه التقنية قريبًا في مساعد مايكروسوفت الذكي Copilot ومحرك البحث Bing، اللذين يتلقيان نحو 50 مليون استعلام صحي يوميًا.
وصرح سليمان أن مايكروسوفت تقترب من تطوير نماذج ذكاء اصطناعي ليست أفضل قليلاً فقط، بل أفضل بكثير من الأداء البشري: أسرع، أقل تكلفة، وأكثر دقة بأربع مرات.
يأتي مشروع سليمان الجديد بعد أن قاد DeepMind عدة اختراقات في مجال الرعاية الصحية المرتبطة بالذكاء الاصطناعي، حيث فاز مديرها سير ديميس هسابيس بجائزة نوبل للكيمياء العام الماضي لاستخدام الذكاء الاصطناعي في فك أسرار البروتينات البيولوجية.
فرص جديدة
استثمرت مايكروسوفت نحو 14 مليار دولار في OpenAI، وتمتلك حقوقًا حصرية لاستخدام وبيع تقنيتها، لكنها تواجه خلافات مع الشركة الناشئة التي تسعى للتحول إلى كيان ربحي، ما أدى إلى توترات حول شروط الشراكة المستقبلية.
وأكد سليمان أن مايكروسوفت لا تفضل نموذجًا معينًا من بين النماذج الأربعة "عالية المستوى" التي يستخدمها MAI-DxO، معتبراً أن المنسق هو العنصر الفاصل والمميز.
وأشار دومينيك كينغ، رئيس وحدة الصحة السابق في DeepMind والذي انضم إلى مايكروسوفت مؤخرًا، إلى أن البرنامج "أدى أداءً أفضل من أي شيء رأيناه من قبل"، معتبراً أن هناك فرصة حقيقية لاستخدامه كبوابة جديدة للرعاية الصحية.
علامة فارقة
ولفت كينغ إلى أن النماذج الذكية كانت موجهة أيضًا للتركيز على تقليل التكاليف، ما خفض بشكل كبير عدد الفحوصات اللازمة للوصول للتشخيص الصحيح في التجربة، موفرًا مئات آلاف الدولارات في بعض الحالات.
مع ذلك، أكد كينغ أن التكنولوجيا لا تزال في مراحلها الأولى ولم تُراجع بعد من قبل الأقران، وليست جاهزة بعد للاستخدام في البيئات السريرية.
وصف إريك توبول، طبيب القلب ومؤسس معهد سكرِبز للأبحاث التطبيقية، الدراسة بأنها "علامة فارقة"، مشيرًا إلى أنها أول دراسة تقدم دليلًا على الكفاءة والجدوى المحتملة للذكاء الاصطناعي التوليدي في الطب، من حيث الدقة وتوفير التكاليف، رغم أنها لم تُجرَ في ممارسات طبية حقيقية بعد.
أسامة عثمان (أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الاصطناعي التوليدي الرعاية الصحية نماذج الذكاء الاصطناعي التوليدية مايكروسوفت الذكاء الاصطناعي الأمراض جوجل الذکاء الاصطناعی
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.