استخدام الذكاء الاصطناعي في فحوصات سرطان الثدي يزيد فرص اكتشاف المرض
تاريخ النشر: 8th, January 2025 GMT
وجد الباحثون أن استخدام الذكاء الاصطناعي في فحص سرطان الثدي يزيد من فرصة اكتشاف المرض، في ما يقولون إنه أول اختبار في العالم الحقيقي لهذا النهج، حسب تقرير نشرته صحيفة "الغارديان" البريطانية.
وبحسب التقرير الذي ترجمته "عربي21"، فإن العديد من الدراسات اقترحت أن الذكاء الاصطناعي يمكن أن يساعد المتخصصين الطبيين في اكتشاف السرطان، سواء كان ذلك من خلال تحديد النمو غير الطبيعي في عمليات التصوير المقطعي المحوسب أو علامات سرطان الثدي في تصوير الثدي بالأشعة السينية.
ومع ذلك، فإن العديد من الدراسات بأثر رجعي - حيث لم يكن الذكاء الاصطناعي مشارك في البداية - في حين أن التجارب التي تتبنى النهج المعاكس غالبا ما يكون عدد العينات صغيرة. الدراسات المهمة والأوسع لا تعكس بالضرورة الاستخدام في العالم الحقيقي.
يقول الباحثون الآن إنهم اختبروا الذكاء الاصطناعي في برنامج فحص على مستوى البلاد لأول مرة، وكشفوا أنه يقدم فوائد في بيئة العالم الحقيقي.
قال البروفيسور ألكسندر كاتالينيك، أحد مؤلفي الدراسة من جامعة لوبيك في ألمانيا: "يمكننا تحسين معدل الاكتشاف دون زيادة الضرر الذي يلحق بالنساء المشاركات في فحص سرطان الثدي"، مضيفا أن هذا النهج يمكن أن يقلل أيضا من عبء عمل أخصائيي الأشعة.
قام كاتالينيك وزملاؤه بتحليل بيانات من 461818 امرأة في ألمانيا خضعن لفحص سرطان الثدي بين تموز/ يوليو 2021 وشباط/ فبراير 2023 كجزء من برنامج وطني يستهدف النساء بدون أعراض تتراوح أعمارهن بين 50 و69 عاما.
ووفقا للتقرير، فقد تم فحص جميع النساء بشكل مستقل من قبل اثنين من أخصائيي الأشعة. ومع ذلك، بالنسبة لـ 260739 من النساء، استخدم أحد الخبراء على الأقل أداة الذكاء الاصطناعي لدعمهم.
لا تقوم أداة الذكاء الاصطناعي فقط بتصنيف الفحوصات التي تعتبرها غير مشبوهة على أنها "طبيعية" بشكل واضح، ولكنها تصدر تنبيها "بشبكة أمان" عندما يحكم أخصائي الأشعة على الفحص الذي تعتبره مشبوها بأنه غير مشبوه. في مثل هذه الحالة، تسلط الأداة الضوء أيضا على منطقة الفحص التي تشير إلى أنها تستحق التدقيق.
بشكل عام، تم تشخيص إصابة 2881 امرأة في الدراسة، التي نُشرت في مجلة Nature Medicine، بسرطان الثدي. وكان معدل الكشف أعلى بنسبة 6.7% في مجموعة AI. ومع ذلك، بعد مراعاة عوامل مثل عمر النساء وأخصائيي الأشعة المشاركين، وجد الباحثون أن هذا الاختلاف زاد، حيث كان المعدل أعلى بنسبة 17.6% لمجموعة AI عند 6.70 لكل 1000 امرأة مقارنة بـ 5.70 لكل 1000 امرأة للمجموعة القياسية. بعبارة أخرى، تم اكتشاف حالة إضافية واحدة من السرطان لكل 1000 امرأة تم فحصها عند استخدام AI.
وقال الفريق إن معدل استدعاء النساء لمزيد من التحقيق نتيجة لفحص مشبوه كان متماثلا تقريبا، وفق "الغارديان".
وقال كاتالينيك: "في دراستنا، كان لدينا معدل اكتشاف أعلى دون وجود معدل أعلى من الإيجابيات الكاذبة. هذه نتيجة أفضل، مع نفس الضرر".
وقال الفريق إن "شبكة الأمان" للأداة تم تشغيلها 3959 مرة في مجموعة الذكاء الاصطناعي، وأدت إلى 204 تشخيصا لسرطان الثدي. وعلى النقيض من ذلك، كان من الممكن تفويت 20 تشخيصا لسرطان الثدي في مجموعة الذكاء الاصطناعي لو لم يفحص الأطباء الفحوصات التي اعتبرها الذكاء الاصطناعي "طبيعية".
وأشار ستيفان بانك، وهو مؤلف مشارك آخر ومؤسس مشارك لشركة فارا، الشركة التي بنت أداة الذكاء الاصطناعي، إلى أن التكنولوجيا زادت من السرعة التي فحص بها أخصائيو الأشعة الفحوصات التي تم وضع علامة عليها على أنها "طبيعية"، مضيفا أن الحسابات أظهرت أنه حتى لو لم تتم مراجعة هذه الفحوصات من قبل الخبراء فإن معدل اكتشاف سرطان الثدي الإجمالي سيكون أعلى ومعدل التذكير أقل من دون الأداة. وقال إن هذا يعني عددا أقل من الإيجابيات الكاذبة للنساء وتقليل عبء العمل على أطباء الأشعة.
وقال ستيفن دافي، الأستاذ الفخري لفحص السرطان في جامعة كوين ماري في لندن، والذي لم يشارك في العمل، إن النتائج كانت موثوقة ومثيرة للإعجاب.
وأضاف "هنا في المملكة المتحدة، هناك اهتمام محدد بما إذا كان استخدام الذكاء الاصطناعي بالإضافة إلى أخصائي أشعة واحد يمكن أن يحل محل القراءة بأمان بواسطة أخصائيي أشعة اثنين. وكلما أسرعنا في التثبت من النتائج بشكل قاطع كلما كان ذلك أفضل".
وقالت الدكتورة كريستينا لانغ، من جامعة لوند، إن الدراسة أضافت إلى مجموعة الأدلة المتزايدة التي تدعم الفوائد المحتملة لدمج الذكاء الاصطناعي في فحص التصوير الشعاعي للثدي. لكنها أضافت أن الزيادة الكبيرة في حالات السرطان الموضعي المكتشفة أثارت المخاوف، حيث من المرجح أن تنمو هذه السرطانات ببطء وقد تساهم في عبء التشخيص الزائد للفحص.
وأضافت "المتابعة طويلة الأمد ضرورية لفهم الآثار السريرية الكاملة لدمج الذكاء الاصطناعي في فحص التصوير الشعاعي للثدي. إن النتائج مشجعة، ولكن من الضروري التأكد من أننا ننفذ طريقة قادرة على اكتشاف السرطانات ذات الصلة سريريا في مرحلة مبكرة، حيث يمكن للكشف المبكر أن يحسن بشكل كبير نتائج المرضى".
وقالت الدكتورة كاثرين هاليداي، رئيسة الكلية الملكية لأطباء الأشعة، إن أحدث تعداد للمنظمة أظهر نقصا بنسبة 29% في أطباء الأشعة في هيئة الخدمات الصحية الوطنية.
وشددت على أن "أي أدوات يمكن أن تعزز دقتنا وإنتاجيتنا موضع ترحيب. ولكن في حين أن الفوائد المحتملة كبيرة، فإن المخاطر المحتملة كبيرة أيضا. من الأهمية بمكان أن يتم نشر الذكاء الاصطناعي في هيئة الخدمات الصحية الوطنية بعناية، مع إشراف الخبراء".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي صحة طب وصحة طب وصحة الذكاء الاصطناعي سرطان الثدي سرطان الثدي صحة الذكاء الاصطناعي المزيد في صحة طب وصحة طب وصحة طب وصحة طب وصحة طب وصحة طب وصحة صحة صحة صحة سياسة سياسة صحة صحة صحة صحة صحة صحة صحة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی فی سرطان الثدی یمکن أن فی فحص
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر