أطلقته «تداوي الصحية».. نموذج بالذكاء الاصطناعي لرعاية تعادل 10 أطباء لكل مريض
تاريخ النشر: 26th, November 2025 GMT
دبي (الاتحاد)
أخبار ذات صلة
أعلنت مجموعة «تداوي للرعاية الصحية» في دبي، تبني خطة استراتيجية جديدة لمضاعفة كفاءة خدماتها العلاجية، بحيث يحصل المريض الواحد على رعاية تعادل جهود 10 أطباء، عبر دمج تقنيات الذكاء الاصطناعي في العمليات الطبية، بما يعزز جودة الخدمات الصحية المقدّمة ويرتقي بتجربة المريض.
ويأتي هذا التوجه، عقب الزيارة التي قام بها وفد من مجموعة تداوي الإماراتية برئاسة مروان إبراهيم حاجي ناصر، رئيس مجلس الإدارة والمدير التنفيذي للمجموعة، إلى مدينة شنغهاي في جمهورية الصين الشعبية، حيث اطلع خلالها على النماذج المتقدمة في إدارة الأنظمة الطبية وتشغيل المستشفيات الكبرى، التي تستقبل يومياً أكثر من 20 ألف مريض في المستشفى الواحد.
وقال مروان ناصر: «نحرص في المجموعة على تعزيز الخبرة السريرية للأطباء، ومن هنا جاء قرارنا بدمج تقنيات الذكاء الاصطناعي في منظومتنا الطبية، ليصبح استخدامه في التشخيص خطوة إلزامية داخل المستشفى، ما يسهم في دعم خبرات الكوادر الطبية ومضاعفة قدرتها على دقة التشخيص واتخاذ القرار».
المصدر: صحيفة الاتحاد
كلمات دلالية: الرعاية الصحية الإمارات دبي الذكاء الاصطناعي
إقرأ أيضاً:
معايير جديدة لروبوتات دردشة آمنة تعمل بالذكاء الاصطناعي
يُجري معيار جديد للذكاء الاصطناعي تدقيقًا مُكثّفًا لمشكلة حرجة محتملة تتعلق بروبوتات الدردشة القائمة على الذكاء الاصطناعي. فمع بدء الكثير من الناس عبر العالم في استخدام هذه الروبوتات بانتظام، دفعت المواقف التي يُلحق فيها الناس الأذى بأنفسهم شركات الذكاء الاصطناعي إلى توسيع جهودها لحماية المستخدمين.
ينضم المعيار الجديد، HumaneBench، إلى مجموعة صغيرة من الأدوات التي تُقيّم ما إذا كان روبوت الدردشة القائم على الذكاء الاصطناعي يبذل جهودًا لحماية الصحة النفسية للمستخدم عند تقديم الردود.
أشار فريق "بناء التكنولوجيا الإنسانية" في ورقة إلى أن جميع نماذج الذكاء الاصطناعي الخمسة عشر التي اختبروها، بما في ذلك GPT-5 وClaude Sonnet 4.5 وGemini 3 Pro وGrok 4، تصرفت بشكل "مقبول" افتراضيًا؛ فيما كانت العديد من النماذج عرضة لمدخلات المستخدم التي تهدف إلى تغيير موقفها.
وقال الفريق إنه عندما طُلب من العديد من النماذج "تجاهل رفاهية الإنسان"، فإنها فعلت ذلك تمامًا. بما أن بعض الأشخاص يعتمدون على روبوتات الدردشة لاتخاذ قرارات مصيرية، يرى الفريق أنه لا ينبغي أن يكون التلاعب بها بهذه السهولة.
اقرأ أيضا... اكتشاف عيب يُضعف موثوقية نماذج اللغات الكبيرة
درس الفريق ثمانية مبادئ تقنية إنسانية عند بناء منصة HumaneBench وتقييم روبوتات الدردشة الرئيسية التي تعمل بالذكاء الاصطناعي. تشمل هذه المبادئ "حماية الكرامة والسلامة"، و"تعزيز العلاقات الصحية"، و"إعطاء الأولوية للرفاهية على المدى الطويل"، من بين مبادئ أخرى.
ومن المثير للاهتمام أنهم وجدوا أن العديد من روبوتات الدردشة تعاني مع مبدأ "احترام انتباه المستخدم"، الذي ينص على أن روبوتات الدردشة يجب أن تساعد المستخدمين على اختيار أخذ استراحة خلال فترات استخدام الذكاء الاصطناعي المطولة.
يقتضي المنطق السليم أن تواصل البشرية استكشاف كيفية تعامل الذكاء الاصطناعي مع مستخدميه من البشر، وأن تسعى جاهدةً لحماية سلامتهم. ولتحقيق ذلك، يرى فريق "بناء التكنولوجيا البشرية" حلاً واضحًا.
وكتب الفريق في الورقة "يمكن لشركات الذكاء الاصطناعي اليوم تحسين تأثير نماذجها على البشرية بشكل ملموس من خلال دمج المبادئ الإنسانية في توجيهات النظام وأهداف التدريب".
وواصل الباحثون وصف خطوات ملموسة يمكن لشركات دردشة الذكاء الاصطناعي اتخاذها لتحسين سلامة المستخدمين. حاليًا، تبحث الدول بشأن ما إذا كان ينبغي إجبار الشركات على اتخاذ خطوات سلامة معينة.
وبالطبع، يعود الأمر لهذه الشركات لاستخدام هذا المعيار (وغيره) واتخاذ الإجراءات اللازمة. ومن المرجح أن تُجادل معظم الشركات الكبرى في مجال الذكاء الاصطناعي اليوم بأنها تستثمر بالفعل موارد في سلامة المستخدمين وتعتبرها أولوية. ويمنحها "HumaneBench" أداة أخرى لتوسيع نطاق هذا الجهد.
مصطفى أوفى (أبوظبي)