مخاطر التشخيص والعلاج باستخدام أدوات الذكاء الاصطناعي
تاريخ النشر: 1st, September 2025 GMT
في ظل تطور وانتشار أدوات الذكاء الاصطناعي وسهولة وصول أغلب أطياف المجتمع لها مؤخرًا، أصبح استخدام تطبيقات مثل "تشات جي بي تي" و"تشات بوت" و"جيمينى" وغيرها لا يحتاج أكثر من هاتف ذكي وباقة إنترنت.
شات جي بي تي في التشخيص العلاجيوفي بداية انتشارها كان المجتمع لا يزال يستكشفها ويستخدمها في بعض الأحيان للترفيه أو للحصول على مساعدة في المهام الوظيفية أو الدراسية، ولكن مع الوقت أصبح قطاع كبير من المجتمع يعتمد عليها كمساعد شخصي في شتى الأمور؛ فمنهم من يعتمد عليها لكتابة بريد إلكتروني، أو لوضع حمية غذائية، أو حتى للحصول على نصيحة عاطفية، إلى أن وصل الأمر إلى اعتماد المرضى على هذه الأدوات بدلًا من الطبيب، وذلك لسهولة التواصل معها في أي وقت ولأنها مجانية مقارنة بارتفاع أسعار الكشف الطبي.
وهذا ما فتح باب التساؤلات حول مدى دقة إجابات تطبيقات الذكاء الاصطناعي عن الأسئلة الطبية، ومخاطر التشخيص الخاطئ أو توجيه المستخدم لتناول علاج غير مناسب لحالته أو متعارض مع أمراض أخرى يغفلها التطبيق لعدم درايته بالتاريخ الطبي للمريض.
كشف بحث علمي بعنوان "فوائد وحدود ومخاطر 'تشات جي بي تي' في الطب" عبر موقع "فرونتيرز" أن "تشات جي بي تي" خضع لاختبار مماثل لاختبار مجلس الأشعة، وهو امتحان اعتماد مطلوب للحصول على مهنة أخصائي أشعة، حيث تضمن الاختبار 150 سؤالًا من نوع الاختيار من متعدد، مصممة لتتوافق مع معايير الكلية الملكية الكندية والمجلس الأمريكي للأشعة.
صُنفت هذه الأسئلة بناءً على المهارات المعرفية المطلوبة، وحقق النموذج معدل دقة إجمالي بلغ 69٪، متفوقًا في أسئلة التفكير من الدرجة الأدنى (84٪) مقارنة بأسئلة التفكير من الدرجة الأعلى (60٪).
ومع ذلك، احتاج النموذج إلى مساعدة في معالجة الأسئلة المتعلقة بوصف الصور، والحساب، والتصنيف، كما واجه تحديات أكبر في أسئلة الفيزياء مقارنة بالأسئلة السريرية.
وعلى الرغم من تحقيق دقة مثالية في المهام الروتينية، إلا أن التحسينات ضرورية لمعالجة التعقيدات التي تشكلها أنواع معينة من الأسئلة. وبشكل إجمالي أظهرت النتائج فعالية "تشات جي بي تي" في الإجابة على الأسئلة المتعلقة بالإشعاع. أما عن تقييم أعراض المستخدم كمريض، أظهرت الدراسة أن استخدام الذكاء الاصطناعي في مجال الطب يحقق نتائج متوسطة عند مساعدة الأطباء في تشخيص الأمراض، حيث تصل دقته في بعض الحالات إلى ما بين 72٪ و93٪. لكن تظل خبرة الطبيب البشري أفضل بكثير في الحالات المعقدة، وهو ما يجعل المتابعة والمراجعة المستمرة أمرًا ضروريًا.
كما تختلف نتائج هذه التقنيات بحسب طبيعة الحالة، فهي تعطي نتائج جيدة عندما تكون الأعراض واضحة، لكنها تواجه صعوبة في الحالات الدقيقة التي تحتاج إلى خبرة عملية واسعة. أما عند استخدام الذكاء الاصطناعي مباشرة مع المرضى، فما زالت النتائج غير مستقرة؛ فقد تصل الدقة أحيانًا إلى 96٪، وأحيانًا أخرى لا تتجاوز 45٪. وتظهر أبرز التحديات في المواقف التي تحتاج إلى قرارات طبية معقدة. وأشار بحث علمي على موقع المكتبة الوطنية الأمريكية بعنوان "الاعتبارات الأخلاقية لاستخدام 'تشات جي بي تي' في الرعاية الصحية" إلى أن الذكاء الاصطناعي يفتقر إلى الوضع القانوني للمحاسبة مما يجعل تحديد المسؤولية القانونية في حالة تضرر المريض مسألة معقدة. وعلى الرغم من أن شركة (أوبن إيه آي) قد اتخذت خطوات لمعالجة هذه المخاوف عبر نشر معايير أمنية مفصلة، وإرشادات استخدام، ولوائح أساسية، فإنها حددت أيضًا بوضوح الحالات التي يُحظر فيها استخدام "تشات جي بي تي". ومع ذلك، فإن أيًا من هذه الإجراءات لا يُعد إلزاميًا في الوقت الحالي.
ويتيح الانفتاح الواسع لـ "تشات جي بي تي" وصولًا غير مقيد لجميع المستخدمين المسجلين. كما تُخلي "أوبن إيه آي" مسؤوليتها بشكل صريح عن أي محتوى يتم توليده، مما يجعل عبء أي أخطاء أو تبعات يقع في النهاية على عاتق المستخدم وحده. على جانب آخر، أوضح بحث بعنوان "تطبيقات ومخاطر 'تشات جي بي تي' المحتملة في مجال الرعاية الصحية" للباحث عمران أصلان، الأستاذ في كلية العلوم الصحية بجامعة بينغول في تركيا، أن "تشات جي بي تي" قد يساعد المرضى على وصف أعراضهم بكفاءة أكبر من خلال إعادة هيكلة قصة المريض إلى صيغة أكثر تنظيمًا تُحاكي أسلوب الطبيب أو الممرض، ما يحسّن من تجربة التواصل بين المريض والطبيب، ويسهّل التشخيص بدقة أكبر. بالإضافة إلى ذلك، يمكن لـ "تشات جي بي تي" تقديم توصيات وتذكيرات صحية مخصصة، مثل جداول الأدوية أو التذكير بالمواعيد، مما يحسّن من تفاعل المريض والتزامه بالعلاج.
كما يمكن أن يساعد في اقتراح الأسباب المحتملة للحالة المرضية استنادًا إلى تاريخ المريض، والأعراض، والإرشادات الإكلينيكية، وقد يلفت الانتباه إلى أمراض نادرة أو حالات غير شائعة قد لا تكون أول ما يخطر في ذهن الطبيب. ومن خلال بعض التوصيات، يمكن تقديم علاج أسرع وأكثر فاعلية، وهو عامل حاسم في أقسام الطوارئ.
ومع ذلك، يظل هناك خطر من أن لا تتضمن قراراته أحدث البروتوكولات العلاجية أو أفضل الممارسات المعتمدة، خاصة عند اتخاذ القرارات تحت ضغط.
وأضاف البحث أن "تشات جي بي تي" قد يكون مفيدًا للأطباء حديثي الخبرة، خصوصًا عند التعامل مع حالات معقدة تتضمن عددًا كبيرًا من الخيارات العلاجية. بالإضافة إلى ذلك، يمكن للنظام أن يوفر تنبيهات فورية حول التداخلات الدوائية المحتملة، أو أخطاء الجرعات، أو موانع الاستعمال، وذلك بالاعتماد على التاريخ الطبي للمريض.
ومن خلال شرح التشخيصات والعلاجات والإجراءات الطبية بلغة واضحة ومبسطة، يمكن تحسين التواصل بين مقدمي الرعاية الصحية والمرضى، خاصة عندما يشعر المرضى بالقلق أو الارتباك تجاه حالتهم وخطة علاجهم. كما يمكنه التعامل مع المرضى غير الناطقين بلغة البلد المقيمين بها عبر التواصل بشكل واضح لتجنب سوء الفهم. وأوضح البحث أن "تشات جي بي تي" يمكن أن يوفر مستوى أوليًا من الدعم للصحة النفسية من خلال تقديم استراتيجيات وموارد للتأقلم، مع تشجيع المستخدمين على طلب المساعدة المهنية عند الحاجة. ولكن على الجانب الآخر، أوضح البحث أن أدوات الذكاء الاصطناعي تفتقر إلى الموضوعية وقابلية التوسع نظرًا لاعتمادها على المدخلات البشرية، ونتيجة لبعض التحيزات البشرية، واللغة غير الحساسة، وعدم الدقة.
وأوضح البحث أيضًا أن من تحديات هذه التكنولوجيا أنها قد تكون مضللة ومتحيزة وخطيرة في مجال الرعاية الصحية إذا لم تتمكن من التمييز بين المعلومات الحقيقية والكاذبة المدخلة إليها، لذا يلزم تدقيق الحقائق من قِبل خبراء بشريين قبل اعتمادها.
المصدر: صدى البلد
كلمات دلالية: شات جي بي تي الذكاء الاصطناعي جيميني الذکاء الاصطناعی الرعایة الصحیة تشات جی بی تی من خلال
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.