بعد إنجازها التاريخي بتحقيق الميدالية الذهبية في أولمبياد باريس، ستحرم الجماهير العربية من متابعة الملاكمة الجزائرية إيمان خليف في أولمبياد لوس أنجلوس المقبلة في 2028.

والسبب في ذلك، هو أن الملاكمة ليست مدرجة في برنامج أولمبياد لوس أنجلوس 2028، حيث قالت اللجنة الأولمبية الدولية مرارا وتكرارا إن الرياضة يجب أن تجد هيئة إدارية جديدة مناسبة، على الأرجح بحلول أوائل عام 2025، من أجل إعادتها إلى تشكيلة الألعاب.

وقامت إحدى وحدات اللجنة الأولمبية الدولية بإدارة بطولتي الملاكمة الأوليمبيتين الماضيتين.

وتعمق الخلاف بين الاتحاد الدولي للملاكمة واللجنة الأولمبية في باريس، بسبب إيمان خليف، حيث اتهم الاتحاد الدولي الملاكمة الجزائرية بأنها غير مؤهلة لمنافسة النساء، بسبب اختبار أجراه أظهر كروموسومات ذكورية في تركيبتها.

هذه القصة أثارت الجدل، وهاجمت اللجنة الأولمبية اتحاد الملاكمة، مؤكدا أن إيمان تعرضت لظلم من قبل اتحاد الملاكمة.

ورد رئيس اتحاد الملاكمة، الروسي عمر كريمليف، بمهاجمة رئيس اللجنة الأولمبية توماس باخ بشكل علني خلال الأولمبياد، مما عمق الخلاف بين الملاكمة والأولمبياد.

 

 

المصدر: سكاي نيوز عربية

كلمات دلالية: ملفات ملفات ملفات الملاكمة أولمبياد لوس أنجلوس 2028 أولمبياد الأولمبياد باريس إيمان خليف الملاكمة أولمبياد لوس أنجلوس 2028 الملاكمة اللجنة الأولمبیة

إقرأ أيضاً:

المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟

قالت المحامية إيمان الحيدر إن كل إنجاز تكنولوجي يؤدي إلى توسع الفجوة بين القدرة على اللحاق بالتقنية والتشريع، وبين ما يمكن للخوارزميات أن تفعله وما يمكن للقانون ملاحقته، ومع هذا الفراغ تتسرب الأخطاء ويصبح الذكاء الاصطناعي خصماً لا يمكن استجوابه ولا يمكن حبسه ولا حتى توجيه اللوم له. فقد أنجز الإنسان تقنية حديثة في العصر الحديث تسمى الذكاء الاصطناعي وفي هذه اللحظة فتح على نفسه باباً من الأسئلة الأخلاقية والقانونية التي تتحدى المفاهيم، ولم نعد أمام فاعلين بشريين تنسب إليهم الأفعال والخطايا بل أمام أنظمة تنتج قرارات تبدو مستقلة ولكنها تفتقر إلى الوعي والنية والضمير. وأكدت أن قطر تخطو بثقة نحو التحول الرقمي واقتصاد المعرفة، وتصبح هذه الأسئلة اليوم أكثر إلحاحاً، وحين يخطئ الذكاء الاصطناعي، يؤدي إلى إلحاق الضرر بالأفراد، والتشريع ليس مجرد أداة تنظيم بل أصبح ضرورة وجودية لضمان العدالة.
مخاطر قانونية متوقعة

وأوضحت أن أهم المخاطر القانونية المتوقعة في ظل استخدام الذكاء الاصطناعي والذي يشكل استخدامه تحديًا قانونيًا خطيراً ومتسارعاً، نظراً لتنوع المخاطر التي قد تترتب عليه. ومن أبرز هذه المخاطر انتهاك الخصوصية، حيث تقوم بعض الأنظمة بجمع البيانات وتحليلها دون موافقة صريحة من الأشخاص نفسهم،.

ومن التحديات مسألة المساءلة القانونية، إذ لا يزال من غير الواضح من يتحمل المسؤولية عند وقوع خطأ ناتج عن الذكاء الصناعي هل هو المطور أم المستخدم أم الشركة؟ يضاف إلى ذلك خطر انتهاك حقوق الملكية الفكرية، فضلاً عن التهديدات المتعلقة بالأمن السيبراني، مما يفتح المجال لاستخدام الذكاء الاصطناعي في أنشطة إجرامية أو تضليل إعلامي. وفي ضوء هذه التحديات، تبرز الحاجة إلى أطر تنظيمية عاجلة وواضحة، وإلى تطوير تقنيات تراعي مبادئ المساءلة واحترام حقوق الأفراد.

وأوصت لتقليص الفجوة بإصدار قانون خاص بالذكاء الاصطناعي: يتضمن تعريفًا واضحًا، وتحديد المسؤوليات، وتنظيم استخدام البيانات، والالتزام بالشفافية والرقابة، وإنشاء هيئة وطنية للذكاء الاصطناعي والأخلاقيات التقنية تتولى وضع المعايير، ومراقبة الالتزام، ومنح التراخيص للتطبيقات عالية المخاطر.

تطوير أطر تنظيمية

و تبرز أهمية الدور الذي يجب أن تقوم به «الوكالة الوطنية للأمن السيبراني» في دولة قطر، ليس فقط في حماية البنية التحتية الرقمية، بل أيضاً في التعاون في تطوير أطر تنظيمية وتشريعية تواكب المخاطر القانونية الجديدة الناتجة عن تقنيات الذكاء الاصطناعي. ووضع سياسات استباقية، وتوجيه كل المؤسسات نحو استخدام مسؤول وآمن للتقنيات، بما يضمن حماية الحقوق الأساسية وتعزيز الثقة في البيئة الرقمية، وتحديث قواعد المسؤولية المدنية والجنائية بإدراج قواعد جديدة تتناسب مع طبيعة الذكاء الاصطناعي، خصوصًا فيما يتعلق بالإثبات والتسبب غير المباشر في الضرر، والتدريب القضائي والتشريعي بهدف رفع كفاءة القضاة والمشرعين وتدريبهم لفهم الجوانب التقنية للذكاء الاصطناعي .

ومن التوصيات التعاون الإقليمي والدولي: الاستفادة من المبادرات الدولية، وتطوير اتفاقيات خليجية مشتركة لتنظيم الذكاء الاصطناعي.

واقترحت لمعالجة الأخطاء المتوقعة للذكاء الاصطناعي وضع تعريف قانوني موحد للذكاء الاصطناعي وتصنيف الأنظمة حسب خطورتها، ومن الضروري أن يبدأ أي تشريع بتحديد ماهية الذكاء الاصطناعي، وأنواعه، ومدى استقلاليته، وذلك بهدف تحديد نطاق تطبيق القانون بوضوح.

كما يجب على القانون أن يصنّف الأنظمة الذكية وفقًا لمستوى الخطورة (منخفض – متوسط – مرتفع)، بحيث تفرض ضوابط أكثر صرامة على التطبيقات عالية الخطورة، والأهم ضبط المسؤولية عند وقوع أخطاء في الذكاء الاصطناعي، ويجب أن يوضح القانون بشكل بسيط ودقيق من هو المسؤول قانونيًا عند حدوث خطأ في أنظمة الذكاء الاصطناعي، ؟ .

كما يمكن فرض آلية تأمين إلزامية على الشركات المطورة أو المشغلة للأنظمة الذكية، لضمان تعويض المتضررين من أخطاء الذكاء الاصطناعي، على غرار تأمين السيارات، ويجب مواءمة قانون الذكاء الاصطناعي مع قانون حماية البيانات الشخصية، بحيث لا تستخدم الأنظمة الذكية البيانات بشكل ينتهك الخصوصية أو يؤدي إلى التمييز غير المشروع.

وقالت: لتنفيذ إطار قانوني فعال للذكاء الاصطناعي، يُقترح تشكيل لجنة وطنية تضم خبراء قانونيين وتقنيين وممثلين عن القطاعين العام والخاص لصياغة التشريع المناسب، كما يمكن إنشاء «صندوق للمخاطر التكنولوجية» لتعويض المتضررين، خصوصًا في الحالات التي يصعب فيها تحديد المسؤول، ويُستحسن تحديث المناهج القانونية في الجامعات، وتنظيم برامج تدريبية للقضاة والمحامين لتعزيز فهمهم للتقنيات الحديثة.

الشرق القطرية

إنضم لقناة النيلين على واتساب

مقالات مشابهة

  • الأولمبية الدولية تستعيد ذكرى تتويج محمد السيد ببرونزية باريس 2024
  • اللجنة الأولمبية تشكر الرياضيين وتُعزز الاستقرار بتفعيل مدونة السلوك
  • قرارات جديدة للجنة الأولمبية المصرية لتعزيز الاستقرار الرياضي
  • سفارة مصر بويلنجتون تفتح أبوابها لاستقبال المواطنين في انتخابات الشيوخ
  • المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟
  • «عمومية القوى» تستعرض تعديلات النظام الأساسي ولائحة الانتخابات
  • محمد فاروق: استقلت من لجنة كلاتنبرج بسبب قرارات اتحاد الكرة.. والخبير الأجنبي ضرورة في الوقت الحالي
  • اللجنة الأولمبية تحتفي بانتخاب ياسر إدريس نائبًا لرئيس الاتحاد الدولي للألعاب المائية
  • أول رد من أسرة مبارك على شائعات بنت مبارك من إيمان الطوخي
  • قطر تحرز الميدالية البرونزية في أولمبياد الفيزياء الدولي 2025