أظهرت دراسة حديثة أن بإمكان الذكاء الاصطناعي تحديد النساء الأكثر عرضة لخطر الإصابة بسرطان الثدي قبل سنوات من اكتشافه لديهن بالفعل، وفق ما أعلن المعهد النرويجي للصحة العامة اليوم الثلاثاء.

واستخدم 5 باحثين من المعهد وجامعتي واشنطن وكاليفورنيا خوارزمية الذكاء الاصطناعي المتاحة تجاريا لتحليل صور الثدي بالأشعة السينية لـ116 ألفا و495 امرأة شاركن في برنامج الفحص بالنرويج بين عامي 2004 و2018، ومن بين هؤلاء أصيبت 1607 سيدة بسرطان الثدي.

وباستخدام نظام وضع علامات للمخاطر بالاعتماد على صور الثدي بالأشعة السينية تمكنت الخوارزمية من التنبؤ بخطر أعلى للإصابة بسرطان الثدي، وحتى تحديد الثدي المعرض للخطر قبل 4 إلى 6 سنوات من التشخيص.

وقالت سولفيغ هوففيند المسؤولة عن المشروع ومديرة برنامج الفحص في بيان "لقد وجدنا أن الذكاء الاصطناعي وضع للثدي الذي أصيب بالسرطان علامة أعلى بنحو مرتين من الثدي الآخر".

وأضافت أن "الدراسة بيّنت أن خوارزميات الذكاء الاصطناعي المتاحة راهنا في السوق يمكن استخدامها لتطوير برامج فحص مشخصنة".

واعتبر المعهد النرويجي أن من شأن استخدام الذكاء الاصطناعي تحقيق منافع تتمثل في تحسين الكشف المبكر وخفض التكاليف واستهداف الفئات السكانية المعرضة للخطر بشكل أفضل.

إعلان

وتوفيت 670 ألف امرأة عام 2022 بحسب منظمة الصحة العالمية بسبب سرطان الثدي، وهو الشكل الأكثر شيوعا من السرطان لدى النساء في الأغلبية العظمى من البلدان.

ونُشرت الدراسة في أكتوبر/تشرين الأول الماضي في شبكة "جورنال أوف ذي أميركان ميديكال أسوسيشن".

وأطلق برنامج الفحص النرويجي دراسة أخرى العام الماضي شملت 140 ألف امرأة، لمعرفة ما إذا كانت لدى الذكاء الاصطناعي قدرة مماثلة لقدرة اختصاصي الأشعة أو أكبر منها في تشخيص السرطان.

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • «إي آند» تطلق برنامج خريجي الذكاء الاصطناعي لعام 2025
  • أشرف زكي ومواهب المعهد العالي للفنون المسرحية ضيوف معكم منى الشاذلي.. الخميس
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟