أخبارنا المغربية- الرباط

صادق مجلس الحكومة، اليوم الخميس، على مشروع المرسوم رقم 2.23.1054 بتطبيق بعض أحكام القانون رقم 08.22 المتعلق بإحداث المجموعات الصحية الترابية، قدمه وزير الصحة والحماية الاجتماعية خالد آيت طالب.

وأوضح الوزير المكلف بالعلاقات مع البرلمان، الناطق الرسمي باسم الحكومة، مصطفى بايتاس، خلال لقاء صحفي عقب الاجتماع الأسبوعي للمجلس، أن هذا المشروع يندرج في إطار استكمال تنزيل المقتضيات التنظيمية التي يحيل عليها القانون رقم 08.

22 بإحداث المجموعات الصحية الترابية، ولاسيما المواد 3 و6 و20 منه، وذلك تنفيذا للتوجيهات الملكية السامية الرامية إلى النهوض بالمنظومة الصحية الوطنية وتحسين جاذبيتها، بما يضمن تقديم الخدمات الصحية لفائدة الساكنة بشكل منصف ومتكافئ وعادل على الصعيد الترابي.

وأبرز السيد بايتاس أنه تم بموجب هذا المشروع اعتماد نمط جديد ومبتكر في التدبير الصحي، يرتكز على البعد الجهوي ويجعل المؤسسات الصحية قريبة من المواطنات والمواطنين، وفق أهداف مضبوطة ورؤية استراتيجية بعيدة المدى، وذلك من خلال إحداث المجموعات الصحية الترابية، باعتبارها مؤسسات عمومية مكلفة بتنفيذ سياسة الدولة في مجال الصحة على الصعيد الجهوي.

ويتضمن مشروع هذا المرسوم، يضيف الوزير، مقتضيات تهم إسناد وصاية الدولة على المجموعات الصحية الترابية إلى السلطة الحكومية المكلفة بالصحة.

المصدر: أخبارنا

كلمات دلالية: المجموعات الصحیة الترابیة

إقرأ أيضاً:

نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم

أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.

إجابات متغيرة بناء على هوية المستخدم

وجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم. على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.

يخطط ويكذب ويخفي أهدافه.. هل يقترب الذكاء الاصطناعي من وعي يشبه البشر؟جوجل: الذكاء الاصطناعي يغير قواعد اللعبة.. وGemini يحصد الملايين

وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.

التأثيرات الخطيرة على نصائح الصحة والقانون

أظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية. 

فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.

كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.

التحيزات الخفية في الذكاء الاصطناعي

من المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.

دعوة لمراجعة الأساليب وأدوات مكافحة التحيز

دعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال. 

وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.

نتائج الدراسة: التحيزات على أساس العرق والجنس

أظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.

التأثيرات على الرواتب والنصائح الطبية

فيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.

أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT. 

ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.

توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.

طباعة شارك الذكاء الاصطناعي إجابات متغيرة نماذج الذكاء الاصطناعي

مقالات مشابهة

  • عاجل| الملك يؤكد لستارمر ضرورة وقف كارثة غزة وتكثيف المساعدات عبر البر
  • بدعم من رؤى جلالة الملك.. حرير تمكّن أطفال غزة والأردن من المشي مجددًا
  • إزالة السواتر الترابية في مناطق سهل الغاب لتسهيل حركة المرور
  • نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
  • الاشتراكي الموحد يعقد مؤتمره الجهوي الثالث بقصبة تادلة بحضور منيب والعسري
  • WSJ تنشر مقالاً لـياسر أبو شباب.. تحدث عن هدف مجموعته المسلحة
  • الخليفات يرأس لقاء وطني موسع بالكرك ويشيد بمواقف جلالة الملك تجاه القضية الفلسطينية .. فيديو وصور
  • وزيرة خارجية فلسطين: الدفاع عن القضية الفلسطينية ثابت أساسي في دبلوماسية الملك محمد السادس
  • طنجة تحتضن المنتدى الجهوي للاقتصاد الأخضر 2025
  • العيسوي: الملك يقود المسيرة الوطنية برؤية راسخة تُعزز الثقة وتصون السيادة والكرامة