باستخدام الذكاء الاصطناعي.. أوروبا تعتمد أول اتفاقية دولية لحقوق الانسان
تاريخ النشر: 17th, May 2024 GMT
اعتمد مجلس أوروبا أول اتفاقية دولية ملزمة قانوناً على الإطلاق تهدف إلى ضمان احترام حقوق الإنسان وسيادة القانون والمعايير القانونية للديمقراطية عند استخدام أنظمة الذكاء الاصطناعي. وتتضمن المعاهدة، التي تتيح الانضمام للدول غير الأوروبية أيضاً، إطاراً قانونياً يشمل دورة حياة أنظمة هذا الذكاء بأكملها ويعالج المخاطر التي قد تشكلها، مع تعزيز الابتكار المسؤول.
وتم اعتماد «اتفاقية إطار مجلس أوروبا بشأن الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون» في ستراسبورغ خلال الاجتماع الوزاري السنوي للجنة الوزارية لمجلس أوروبا، والذي يجمع وزراء خارجية الدول الأعضاء الـ46 في المجلس.
وصرحت الأمينة العامة لمجلس أوروبا، ماريا بيجسينوفيتش، قائلة: «اتفاقية إطار الذكاء الاصطناعي هي معاهدة عالمية الأولى من نوعها تضمن التزام الذكاء الاصطناعي بحقوق الإنسان. إنها استجابة للحاجة إلى معيار قانوني دولي تدعمه دول في قارات مختلفة تشارك القيم نفسها للاستفادة من مزاياه مع تخفيف المخاطر. من خلال هذه المعاهدة الجديدة، نهدف إلى ضمان استخدام مسؤول للذكاء الاصطناعي يحترم حقوق الإنسان وسيادة القانون والديمقراطية».
وتعد الاتفاقية نتاج عمل لمدة عامين من قِبل هيئة حكومية دولية، هي لجنة الذكاء الاصطناعي، والتي جمعت لصياغة المعاهدة الدول الأعضاء الـ46 في مجلس أوروبا والاتحاد الأوروبي و11 دولة غير عضو، بالإضافة إلى ممثلين عن القطاع الخاص والمجتمع المدني والأوساط الأكاديمية الذين شاركوا كمراقبين.
وتغطي المعاهدة استخدام أنظمة الذكاء الاصطناعي في القطاع العام - بما في ذلك الشركات التي تعمل نيابةً عنها - وفي القطاع الخاص. وتقدم الاتفاقية للدول الأطراف طريقتين للامتثال لمبادئها والتزاماتها عند تنظيم القطاع الخاص، إذ يجوز للأطراف اختيار الالتزام المباشر بأحكام الاتفاقية ذات الصلة أو كبديل اتخاذ تدابير أخرى للامتثال لأحكام المعاهدة مع احترام كامل لالتزاماتها الدولية المتعلقة بحقوق الإنسان والديمقراطية وسيادة القانون. وهذا النهج ضروري بسبب اختلاف الأنظمة القانونية في جميع أنحاء العالم.
وتحدد الاتفاقية متطلبات الشفافية والإشراف المصممة لتلائم السياقات والمخاطر المحددة، بما في ذلك تحديد المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي. وسيتعين على الأطراف اتخاذ تدابير لتحديد وتقييم ومنع وتخفيف المخاطر المحتملة وتقييم الحاجة إلى وقف مؤقت أو حظر أو اتخاذ تدابير أخرى مناسبة فيما يتعلق باستخدامات أنظمة الذكاء الاصطناعي حيث قد تكون مخاطرها غير متوافقة مع معايير حقوق الإنسان.
كما سيتعين عليهم ضمان المساءلة والمسؤولية عن الآثار السلبية وأن تحترم أنظمة الذكاء الاصطناعي المساواة، بما في ذلك المساواة بين الجنسين، وحظر التمييز، وحقوق الخصوصية. علاوة على ذلك، سيتعين على الأطراف في المعاهدة ضمان توفر سبل انتصاف قانونية لضحايا انتهاكات حقوق الإنسان المتعلقة باستخدام أنظمة الذكاء الاصطناعي وضمانات إجرائية، بما في ذلك إخطار أي شخص يتفاعل مع أنظمته بأنه يتفاعل مع مثل هذه الأنظمة.
وفي ما يتعلق بالمخاطر التي تهدد الديمقراطية، تطلب المعاهدة من الأطراف اعتماد تدابير لضمان عدم استخدام أنظمة الذكاء الاصطناعي لتقويض المؤسسات والعمليات الديمقراطية، بما في ذلك مبدأ الفصل بين السلطات واحترام استقلال القضاء والوصول إلى العدالة.
ولن يُطلب من الأطراف في الاتفاقية تطبيق أحكام المعاهدة على الأنشطة المتعلقة بحماية مصالح الأمن القومي، ولكنها ستكون ملزمة بضمان احترام هذه الأنشطة للقانون الدولي والمؤسسات والعمليات الديمقراطية. ولن تنطبق الاتفاقية على شؤون الدفاع الوطني ولا على أنشطة البحث والتطوير، إلا عندما يكون لاختبار أنظمة الذكاء الاصطناعي القدرة على التدخل في حقوق الإنسان أو الديمقراطية أو سيادة القانون.
ومن أجل ضمان تنفيذها الفعال، تنشئ الاتفاقية آلية للمتابعة في شكل مؤتمر للأطراف.
وأخيراً، تشترط الاتفاقية أن يقوم كل طرف بإنشاء آلية رقابة مستقلة للإشراف على الامتثال للاتفاقية، ورفع مستوى الوعي، وتحفيز النقاش العام المستنير، وإجراء مشاورات بين أصحاب المصلحة المتعددين حول كيفية استخدام تكنولوجيا الذكاء الاصطناعي. وسيتم فتح الاتفاقية الإطارية للتوقيع في فيلنيوس (ليتوانيا) في 5 سبتمبر (أيلول) بمناسبة انعقاد مؤتمر وزراء العدل.
المصدر: السومرية العراقية
كلمات دلالية: استخدام أنظمة الذکاء الاصطناعی وسیادة القانون حقوق الإنسان بما فی ذلک
إقرأ أيضاً:
قيادة المستقبل في عصر الذكاء الاصطناعي
د. علي بن حمدان بن محمد البلوشي
تطوَّر مفهوم القيادة بشكل كبير خلال العقود الأخيرة، فلم يعد القائد هو ذلك الشخص الذي يعتمد فقط على الكاريزما أو السلطة الرسمية؛ بل أصبح الدور أكثر شمولًا وتعقيدًا.
القيادة الحديثة تقوم على مزيج من المهارات الإنسانية والتقنية، وعلى قدرة القائد على التأثير في الآخرين والإلهام واتخاذ القرارات ضمن بيئات سريعة التغيّر. وبعض القادة يولدون بسمات تساعدهم مثل الحزم أو الذكاء العاطفي، لكن النجاح الحقيقي يعتمد بشكل أساسي على مهارات مكتسبة عبر التجربة والتعلم المستمر؛ مثل القدرة على التواصل، التفكير الاستراتيجي، إدارة فرق متنوعة، فهم البيانات، والتعامل مع التقنية.
وفي عصر العولمة والذكاء الاصطناعي، يواجه القادة تحديات لم يشهدوها من قبل. أولى هذه التحديات هو تسارع التغيير التقني الذي يفرض على القائد مواكبة الابتكار دون فقدان البوصلة الإنسانية. إضافة إلى ذلك، فإن تنوع ثقافات ومهارات المرؤوسين يجعل إدارة التوقعات وبناء فرق متجانسة أكثر تعقيدًا. كما تُعد حماية البيانات والالتزام بالأخلاقيات الرقمية من أبرز التحديات، في وقت أصبحت فيه القرارات المدعومة بالذكاء الاصطناعي جزءًا من العمليات اليومية. كذلك تواجه المؤسسات ضغوطًا عالمية تتعلق بالاستدامة والمسؤولية المجتمعية، ما يتطلب من القادة فهم البيئة الدولية واتخاذ قرارات مبنية على قيم واضحة.
ولمواجهة هذه التحديات، يحتاج القائد إلى مجموعة من الاستراتيجيات والأدوات. من أهمها تعزيز ثقافة الابتكار داخل الفريق وتشجيع التعلم المستمر، بما في ذلك تعلّم مهارات العمل جنبًا إلى جنب مع أنظمة الذكاء الاصطناعي. كما يجب على القائد بناء جسور للثقة عبر الشفافية في القرارات، والإفصاح عن كيفية استخدام البيانات والتقنيات. ويُعد الالتزام بالأخلاقيات- سواء في استخدام التكنولوجيا أو إدارة الأفراد- ركيزة أساسية للحفاظ على سمعة المؤسسة ومتانة بيئتها الداخلية. كما ينبغي استخدام أدوات التحليل الرقمي لأخذ قرارات دقيقة، دون إغفال البعد الإنساني في قيادة الأفراد وفهم دوافعهم الثقافية والاجتماعية.
وفي الختام.. فإن قادة المستقبل بحاجة إلى مزيج فريد من البُعد الإنساني والرؤية التقنية. عليهم أن يعزّزوا الثقة داخل منظوماتهم، ويجعلوا الأخلاق معيارًا أساسيًا في كل خطوة، وأن يبنوا ثقافة عمل تتقبّل التغيير وتحتفي بالابتكار. والمستقبل سيكافئ القادة القادرين على التوازن بين العقل والآلة، وبين التقنية والقيم، وبين الطموح والمسؤولية؛ فهؤلاء وحدهم سيقودون التغيير في عصر الذكاء الاصطناعي.
** مستشار اكاديمي