إعفاءات في صفوف مدراء مستشفيات و عزوف عن شغل مناصب المسؤولية
تاريخ النشر: 25th, March 2025 GMT
زنقة 20 | الرباط
كشفت مصادر مطلعة بأن وزير الصحة والحماية الإجتماعية، أمين التهراوي، قد شرع في حملة إعفاءات طالت عدداً من مديري المراكز الإستشفائية الإقليمية و الجهوية، وذلك بعد رصد تجاوزات إدارية ومالية تستوجب المساءلة.
وبحسب ذات المصادر، فقد استهل الوزير هذه الإجراءات بإعفاء مديرة المستشفى الجهوي ببني ملال، على خلفية اختلالات تم تسجيلها في التدبير الإداري والمالي للمؤسسة.
ومن المتوقع أن تتواصل هذه الحملة لتشمل مستشفيات أخرى بجنوب وشمال المملكة عانت من سوء التسيير، وغياب الأطر الصحية، وتجاوزات في الصفقات العمومية.
من جهة أخرى، أعلنت وزارة الصحة عن النتائج النهائية للمقابلات الانتقائية لشغل منصب مدراء المراكز الإستشفائية الجهوية والإقليمية والمستشفيات.
و شهدت النتائج عزوفا واسعا من قبل المترشحين عن التقدم لشغل مناصب مدراء مستشفيات إقليمية و جهوية باستثناء قلة قليلة.
المصدر: زنقة 20
إقرأ أيضاً:
المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟
قالت المحامية إيمان الحيدر إن كل إنجاز تكنولوجي يؤدي إلى توسع الفجوة بين القدرة على اللحاق بالتقنية والتشريع، وبين ما يمكن للخوارزميات أن تفعله وما يمكن للقانون ملاحقته، ومع هذا الفراغ تتسرب الأخطاء ويصبح الذكاء الاصطناعي خصماً لا يمكن استجوابه ولا يمكن حبسه ولا حتى توجيه اللوم له. فقد أنجز الإنسان تقنية حديثة في العصر الحديث تسمى الذكاء الاصطناعي وفي هذه اللحظة فتح على نفسه باباً من الأسئلة الأخلاقية والقانونية التي تتحدى المفاهيم، ولم نعد أمام فاعلين بشريين تنسب إليهم الأفعال والخطايا بل أمام أنظمة تنتج قرارات تبدو مستقلة ولكنها تفتقر إلى الوعي والنية والضمير. وأكدت أن قطر تخطو بثقة نحو التحول الرقمي واقتصاد المعرفة، وتصبح هذه الأسئلة اليوم أكثر إلحاحاً، وحين يخطئ الذكاء الاصطناعي، يؤدي إلى إلحاق الضرر بالأفراد، والتشريع ليس مجرد أداة تنظيم بل أصبح ضرورة وجودية لضمان العدالة.
مخاطر قانونية متوقعة
وأوضحت أن أهم المخاطر القانونية المتوقعة في ظل استخدام الذكاء الاصطناعي والذي يشكل استخدامه تحديًا قانونيًا خطيراً ومتسارعاً، نظراً لتنوع المخاطر التي قد تترتب عليه. ومن أبرز هذه المخاطر انتهاك الخصوصية، حيث تقوم بعض الأنظمة بجمع البيانات وتحليلها دون موافقة صريحة من الأشخاص نفسهم،.
ومن التحديات مسألة المساءلة القانونية، إذ لا يزال من غير الواضح من يتحمل المسؤولية عند وقوع خطأ ناتج عن الذكاء الصناعي هل هو المطور أم المستخدم أم الشركة؟ يضاف إلى ذلك خطر انتهاك حقوق الملكية الفكرية، فضلاً عن التهديدات المتعلقة بالأمن السيبراني، مما يفتح المجال لاستخدام الذكاء الاصطناعي في أنشطة إجرامية أو تضليل إعلامي. وفي ضوء هذه التحديات، تبرز الحاجة إلى أطر تنظيمية عاجلة وواضحة، وإلى تطوير تقنيات تراعي مبادئ المساءلة واحترام حقوق الأفراد.
وأوصت لتقليص الفجوة بإصدار قانون خاص بالذكاء الاصطناعي: يتضمن تعريفًا واضحًا، وتحديد المسؤوليات، وتنظيم استخدام البيانات، والالتزام بالشفافية والرقابة، وإنشاء هيئة وطنية للذكاء الاصطناعي والأخلاقيات التقنية تتولى وضع المعايير، ومراقبة الالتزام، ومنح التراخيص للتطبيقات عالية المخاطر.
تطوير أطر تنظيمية
و تبرز أهمية الدور الذي يجب أن تقوم به «الوكالة الوطنية للأمن السيبراني» في دولة قطر، ليس فقط في حماية البنية التحتية الرقمية، بل أيضاً في التعاون في تطوير أطر تنظيمية وتشريعية تواكب المخاطر القانونية الجديدة الناتجة عن تقنيات الذكاء الاصطناعي. ووضع سياسات استباقية، وتوجيه كل المؤسسات نحو استخدام مسؤول وآمن للتقنيات، بما يضمن حماية الحقوق الأساسية وتعزيز الثقة في البيئة الرقمية، وتحديث قواعد المسؤولية المدنية والجنائية بإدراج قواعد جديدة تتناسب مع طبيعة الذكاء الاصطناعي، خصوصًا فيما يتعلق بالإثبات والتسبب غير المباشر في الضرر، والتدريب القضائي والتشريعي بهدف رفع كفاءة القضاة والمشرعين وتدريبهم لفهم الجوانب التقنية للذكاء الاصطناعي .
ومن التوصيات التعاون الإقليمي والدولي: الاستفادة من المبادرات الدولية، وتطوير اتفاقيات خليجية مشتركة لتنظيم الذكاء الاصطناعي.
واقترحت لمعالجة الأخطاء المتوقعة للذكاء الاصطناعي وضع تعريف قانوني موحد للذكاء الاصطناعي وتصنيف الأنظمة حسب خطورتها، ومن الضروري أن يبدأ أي تشريع بتحديد ماهية الذكاء الاصطناعي، وأنواعه، ومدى استقلاليته، وذلك بهدف تحديد نطاق تطبيق القانون بوضوح.
كما يجب على القانون أن يصنّف الأنظمة الذكية وفقًا لمستوى الخطورة (منخفض – متوسط – مرتفع)، بحيث تفرض ضوابط أكثر صرامة على التطبيقات عالية الخطورة، والأهم ضبط المسؤولية عند وقوع أخطاء في الذكاء الاصطناعي، ويجب أن يوضح القانون بشكل بسيط ودقيق من هو المسؤول قانونيًا عند حدوث خطأ في أنظمة الذكاء الاصطناعي، ؟ .
كما يمكن فرض آلية تأمين إلزامية على الشركات المطورة أو المشغلة للأنظمة الذكية، لضمان تعويض المتضررين من أخطاء الذكاء الاصطناعي، على غرار تأمين السيارات، ويجب مواءمة قانون الذكاء الاصطناعي مع قانون حماية البيانات الشخصية، بحيث لا تستخدم الأنظمة الذكية البيانات بشكل ينتهك الخصوصية أو يؤدي إلى التمييز غير المشروع.
وقالت: لتنفيذ إطار قانوني فعال للذكاء الاصطناعي، يُقترح تشكيل لجنة وطنية تضم خبراء قانونيين وتقنيين وممثلين عن القطاعين العام والخاص لصياغة التشريع المناسب، كما يمكن إنشاء «صندوق للمخاطر التكنولوجية» لتعويض المتضررين، خصوصًا في الحالات التي يصعب فيها تحديد المسؤول، ويُستحسن تحديث المناهج القانونية في الجامعات، وتنظيم برامج تدريبية للقضاة والمحامين لتعزيز فهمهم للتقنيات الحديثة.
الشرق القطرية
إنضم لقناة النيلين على واتساب