"قانون الذكاء الاصطناعي" في أوروبا.. خطوة مهمة لتعزيز مبادئ الاستخدام المسؤول
تاريخ النشر: 11th, August 2024 GMT
◄ مختص بتكنولوجيا المعلومات: القانون يفتح فرصا جديدة في السوق الأوروبية رغم التحديات
الرؤية- سارة العبرية
في الأسبوع الأول من أغسطس الجاري، دخل "قانون الذكاء الاصطناعي" الذي أصدره الاتحاد الأوروبي حيّذ التنفيذ، إذ يعد هذا القانون خطوة تاريخية باعتباره أول تشريع من نوعه في العالم يختص بالذكاء الاصطناعي.
ويعود تاريخ هذا القانون إلى عام 2021، عندما اقترحت المفوضية الأوروبية أول إطار قانوني على الإطلاق بشأن الذكاء الاصطناعي، وتم الانتهاء منه في ديسمبر 2023؛ حيث يهدف هذا الإطار إلى معالجة مخاطر الذكاء الاصطناعي ووضع أوروبا في مكانة رائدة على مستوى العالم.
ومن المتوقع أن يسهم القانون في تنظيم استخدام الذكاء الاصطناعي في أوروبا، مما يعزز الثقة في هذه التكنولوجيا ويشجع على الابتكار، كما سيضمن القانون تطبيق معايير عالية للسلامة والأخلاقيات وتعزيز من الذكاء الاصطناعي المسؤول، مما يقلل من المخاطر المحتملة.
ولمراقبة التنفيذ الفعّال والامتثال لمقدمي نماذج GPAI، سيتم إنشاء مكتب الذكاء الاصطناعي داخل المفوضية الأوربية، كما يمكن لمقدمي الخدمات النهائية تقديم شكوى بشأن انتهاك مقدمي الخدمات الأولية إلى مكتب الذكاء الاصطناعي، كما أنه يجوز لمكتب الذكاء الاصطناعي إجراء تقييمات لنموذج GPAI من أجل تقييم الامتثال عندما تكون المعلومات التي تم جمعها بموجب صلاحياتها لطلب المعلومات غير كافية، والتحقيق في المخاطر النظامية، لاسيما بعد تقرير مؤهل من اللجنة العلمية.
ويسمح القانون الأوروبي باستخدام الذكاء الاصطناعي أو حظره، وفقًا للمخاطر التي تجلبها هذه التكنولوجيا للنَّاس، كما يحدد الأنظمة عالية المخاطر التي يمكن استخدامها فقط في حال ثبت أنها تحترم الحقوق الأساسية وفق وكالة الأنباء العمانية.
ويحظر القانون الجديد أنظمة الذكاء الاصطناعي لأغراض التصنيف الحيوي (البيومتري)، والتي تستند إلى المعتقدات السياسية أو الدينية أو الفلسفية أو إلى العرق أو الميل الجنسي، كما يحظر الأنظمة التي تقيم الأشخاص على أساس السلوك أو السمات الشخصية، أو الأنظمة التي تستطيع استغلال السلوك البشري.
ويمنع القانون كذلك أنظمة توسيع أو إنشاء قواعد البيانات الخاصة بالوجوه، والتي تلتقط على نحو عشوائي عبر الإنترنت، أو من خلال التسجيلات الصوتية والمرئية. وعلى الرغم من ذلك، يسمح القانون باستثناءات، بحيث تستطيع أجهزة الأمن استخدام كاميرات تحديد الهوية البيومترية، بإذن قضائي دائمًا، للحيلولة دون وقوع تهديد إرهابي، على سبيل المثال.
ويقول الدكتور صالح بن عبيد الخالدي مستشار في قطاع الاتصالات وتكنولوجيا المعلومات، إن قانون الذكاء الاصطناعي الأوروبي الجديد يسعى إلى تحقيق مجموعة من الأهداف المتعلقة بضمان تطوير واستخدام أنظمة الذكاء الاصطناعي بطريقة آمنة وموثوقة واحترامًا للحقوق الأساسية، موضحا: "من أبرز هذه الأهداف حماية حقوق الإنسان وضمان أن لا يؤدي استخدام الذكاء الاصطناعي إلى انتهاك الحقوق الأساسية مثل الحق في الخصوصية وحماية البيانات الشخصية وعدم التمييز، بالإضافة إلى التأكد من تحقيق الشفافية؛ حيث يسعى القانون إلى زيادة الشفافية في أنظمة الذكاء الاصطناعي، حتى يتمكن المستخدمون من فهم كيفية عمل هذه الأنظمة واتخاذ قرارات مستنيرة بشأن استخدامها".
وأشار- في تصريح لـ"الرؤية"- إلى أن من بين الأهداف ضمان المساءلة لتحديد المسؤوليات القانونية في حالة حدوث أضرار نتيجة استخدام أنظمة الذكاء الاصطناعي، إضافة إلى تعزيز الثقة في الذكاء الاصطناعي من خلال وضع قواعد واضحة لتنظيمها، مبينا أن قانون الذكاء الاصطناعي الأوروبي يتضمن عدة فئات بناءً على مستوى المخاطر المرتبطة بكل فئة، ومن أهم هذه الفئات أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة وهي الأنظمة التي تهدد بشكل مباشر سلامة أو سبل عيش الأفراد، مثل الأنظمة التي تستخدم للتلاعب بالسلوك البشري بشكل خفي، أو الأنظمة التي تستخدم لتقييم الموثوقية الاجتماعية بطريقة تمييزية. يحظر القانون هذه الأنظمة بشكل كامل، وأيضا أنظمة الذكاء الاصطناعي ذات المخاطر العالية التي يمكن أن تسبب أضرارًا كبيرة، مثل أنظمة اتخاذ القرارات في مجالات العدالة الجنائية أو التوظيف، حيث تخضع هذه الأنظمة إلى متطلبات تنظيمية صارمة، بما في ذلك تقييم المخاطر والشفافية والإشراف البشري، وكذلك أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة التي تشكل مخاطر محدودة، مثل مرشحات البريد العشوائي أو برامج الترجمة الآلية والتي تخضع إلى متطلبات تنظيمية أقل صرامة.
ويرى الخالدي أن قانون الذكاء الاصطناعي الأوروبي يواجه العديد من التحديات والفرص بالنسبة للشركات العاملة في هذا المجال، ومنها زيادة التكاليف؛ أي يتطلب الامتثال للقانون استثمارات كبيرة في التكنولوجيا والبنية التحتية، وكذلك تعقيد العمليات حيث يجب على الشركات تعديل عملياتها ونموذج أعمالها لتلبية متطلبات القانون، إلا أن هذا القانون سوف يفتح فرصا جديدة في السوق الأوروبية للشركات التي تتمكن من تطوير أنظمة ذكاء اصطناعي بشكل آمن وموثوق.
ويقول الدكتور صالح: "يمكن أن تواجه الشركات والأفراد الذين لا يمتثلون لأحكام قانون الذكاء الاصطناعي العديد من العقوبات الكبيرة، بما في ذلك فرض غرامات مالية كبيرة على الشركات التي تنتهك القانون، وحظر الأنشطة وأنظمة الذكاء الاصطناعي التي تشكل تهديدًا للصحة العامة أو الأمن، بالإضافة إلى المسؤولية المدنية حيث يمكن تحميل الشركات مسؤولية الأضرار التي تلحق بالأفراد نتيجة استخدام أنظمة الذكاء الاصطناعي بشكل غير قانوني".
وتابع قائلا: "يمثل قانون الذكاء الاصطناعي الأوروبي خطوة مُهمة نحو تنظيم هذا التكنولوجيا الناشئة، على الرغم من التحديات التي يفرضها على الشركات، إلا أنه يساهم في خلق بيئة أكثر أمانًا واعتمادًا للذكاء الاصطناعي".
المصدر: جريدة الرؤية العمانية
كلمات دلالية: قانون الذکاء الاصطناعی الأوروبی أنظمة الذکاء الاصطناعی الأنظمة التی
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»