تبنى مجلس حقوق الإنسان التابع للأمم المتحدة -اليوم الجمعة- بالتوافق قرارا يدعو المجتمع الدولي إلى اتخاذ تدابير وقائية ورقابية فيما يتعلق بالذكاء الاصطناعي.

وعرضت القرار بشكل مشترك كل من كوريا الجنوبية والنمسا والبرازيل والدانمارك والمغرب وسنغافورة.

وقالت الصين والهند إنهما غير موافقتين، لكنهما لم تطلبا طرح القرار للتصويت، وهي ممارسة شائعة عندما تكون دول غير راضية عن قرار ما لكنها لا تريد عرقلته.

وقالت بكين إن النص يحتوي على عناصر "مثيرة للجدل"، دون الخوض في التفاصيل.

ويدعو القرار إلى تعزيز شفافية أنظمة الذكاء الاصطناعي، وضمان أن البيانات المخصصة لهذه التكنولوجيا "تجمع وتستخدم ويتم تشاركها وتخزينها وحذفها" بطرق تتوافق مع حقوق الإنسان.

ونظر المجلس في التقنيات الجديدة عموما من قبل، لكنها المرة الأولى التي يدرس عن كثب تطوير الذكاء الاصطناعي.

وأكد هذا القرار على أهمية "ضمان وتعزيز وحماية حقوق الإنسان طوال فترة تشغيل أنظمة الذكاء الاصطناعي"، بحسبما قال سفير كوريا الجنوبية يون سيونغ دوك، في حين رأت نظيرته الأميركية ميشيل تايلور أن القرار كان "خطوة إلى الأمام" للمجلس.

من جانبه، أعلن السفير البلجيكي مارك بيكستين دو بيتسيرف باسم الاتحاد الأوروبي "نحن متفقون تماما عندما يشدد القرار على الحاجة من بين أمور أخرى إلى اتخاذ تدابير وقائية والعناية اللازمة والإشراف البشري فيما يتعلق بالذكاء الاصطناعي"، داعيا إلى "مقاربة حذرة" لضمان حماية حقوق الإنسان واحترامها في عالم تتطور فيها التكنولوجيا بوتيرة متسارعة.

ونظرا لما لأنظمة الذكاء الاصطناعي من تعقيد تقني كبير، فإنها بقدر ما تبهر تثير القلق. فإن كانت قادرة على إنقاذ أرواح من خلال القفزة النوعية في تشخيص الأمراض، فقد يتم -في المقابل- استغلالها أيضا من قبل الأنظمة الاستبدادية لممارسة رقابة جماعية على المواطنين.

وضاعف ممثلو الأمم المتحدة وكذلك القادة والخبراء مؤخرا الدعوات لوضع لوائح حتى لا تعرض هذه التقنيات الجديدة البشرية للخطر.

ودعا السفير البريطاني سايمون مانلي الجمعة إلى وضع ضمانات، وشدد على أن بلاده ستستضيف قمة حول الذكاء الاصطناعي في الخريف "للتوصل إلى اتفاق بشأن الإجراءات الأمنية، وتقييم ورصد المخاطر المهمة المتعلقة بالتطورات الأخيرة".

وقال "نحن قلقون للغاية من استخدام التكنولوجيا لتقييد حقوق الإنسان"، بما في ذلك التعدي على الخصوصية.

المصدر: الجزيرة

كلمات دلالية: الذکاء الاصطناعی حقوق الإنسان

إقرأ أيضاً:

تعليم نماذج الذكاء الاصطناعي ما لا تعرفه

أسس فريق من باحثي معهد ماساتشوستس للتكنولوجيا (MIT)، Themis AI لقياس عدم اليقين في نماذج الذكاء الاصطناعي ومعالجة فجوات المعرفة.
تُقدم أنظمة الذكاء الاصطناعي، مثل ChatGPT، إجاباتٍ تبدو معقولة لأي سؤال قد يطرح عليها. لكنها لا تكشف دائمًا عن ثغراتٍ في معارفها أو جوانبَ عدم اليقين فيها.
وقد تُسفر هذه المشكلة عن عواقب وخيمة مع تزايد استخدام أنظمة الذكاء الاصطناعي في مجالاتٍ مثل تطوير الأدوية، وقيادة السيارات ذاتية القيادة.
والآن، تُساعد Themis AI في تحديد عدم اليقين في النماذج وتصحيح النتائج قبل أن تُسبب مشاكل أكبر. ويمكن لمنصة Capsa التابعة للشركة العمل مع أي نموذج تعلُّم آلي للكشف عن النتائج غير الموثوقة وتصحيحها في ثوانٍ. وتعمل المنصة عن طريق تعديل نماذج الذكاء الاصطناعي لتمكينها من اكتشاف الأنماط في معالجة البيانات التي تُشير إلى الغموض أو عدم الاكتمال أو التحيز.
تقول دانييلا روس، المؤسس المشارك لشركة Themis AI والأستاذة في معهد ماساتشوستس للتكنولوجيا، والتي تشغل أيضًا منصب مديرة مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا "الفكرة هي أخذ نموذج، ودمجه في Capsa، وتحديد أوجه عدم اليقين وأنماط فشل النموذج، ثم تحسينه"، مضيفة "نحن متحمسون لتقديم حل يُحسّن النماذج ويضمن عملها بشكل صحيح".
أسست روس شركة Themis AI عام 2021 بالتعاون مع زميلي بحث سابقين في مختبرها. ومنذ ذلك الحين، ساعدوا شركات الاتصالات في تخطيط الشبكات وأتمتتها، وساعدوا شركات النفط والغاز على استخدام الذكاء الاصطناعي لفهم الصور الزلزالية، ونشروا أبحاثًا حول تطوير روبوتات دردشة أكثر موثوقية.
يقول ألكسندر أميني، أحد الرؤساء المشاركين "نريد تمكين الذكاء الاصطناعي في التطبيقات الأكثر أهمية في كل قطاع". ويضيف "رأينا جميعًا أمثلة على هلوسة الذكاء الاصطناعي أو ارتكابه للأخطاء. ومع اتساع نطاق استخدام الذكاء الاصطناعي، قد تؤدي هذه الأخطاء إلى عواقب وخيمة. يُمكّن ثيميس أي ذكاء اصطناعي من التنبؤ بأخطائه قبل وقوعها".
مساعدة النماذج على معرفة ما تجهله
يبحث مختبر روس في عدم اليقين في النماذج منذ سنوات. في عام 2018، حصلت على تمويل لدراسة موثوقية حل قيادة ذاتية قائم على التعلم الآلي. تقول روس "هذا سياق بالغ الأهمية للسلامة، حيث يُعد فهم موثوقية النموذج أمرًا بالغ الأهمية".
في عمل منفصل، طوّر روس وأميني وزملاؤهما خوارزمية يمكنها اكتشاف التحيز العنصري والجنسي في أنظمة التعرف على الوجه، وإعادة وزن بيانات تدريب النموذج تلقائيًا، مما يُظهر أنها أزالت التحيز. عملت الخوارزمية من خلال تحديد الأجزاء غير المُمثلة من بيانات التدريب الأساسية، وتوليد عينات بيانات جديدة ومتشابهة لإعادة توازنها.
في عام 2021، أظهر المؤسسون المشاركون إمكانية استخدام نهج مماثل لمساعدة شركات الأدوية على استخدام نماذج الذكاء الاصطناعي للتنبؤ بخصائص الأدوية المرشحة. وأسسوا شركة Themis AI في وقت لاحق من ذلك العام.
تؤكد روس "قد يوفر توجيه اكتشاف الأدوية الكثير من المال. كانت هذه هي حالة الاستخدام التي جعلتنا ندرك مدى قوة هذه الأداة".
تعمل Themis AI اليوم مع شركات في مجموعة متنوعة من الصناعات، والعديد من هذه الشركات تبني نماذج لغوية ضخمة. باستخدام Capsa، تتمكن هذه النماذج من تحديد مستوى عدم اليقين الخاص بها لكل ناتج.
يعتقد فريق "ثيميس" للذكاء الاصطناعي أن الشركة في وضع جيد لتحسين أحدث تقنيات الذكاء الاصطناعي المتطورة باستمرار. 

أخبار ذات صلة "واتساب" يختبر ميزة إنشاء مساعد مدعوم بالذكاء الاصطناعي ريديت تلاحق "أنثروبيك" قضائياً بتهمة استغلال بيانات المستخدمين دون إذن المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • بهدف حماية الصناعات القطرية : التجارة: فرض رسوم مكافحة الإغراق ضد واردات مواد بناء من الصين والهند
  • الجوازات: تسهيلات لكبار السن والحالات المرضية لإنهاء إجراءاتهم
  • الخارجیة الإيرانية تدين الإجراء العنصري لأمريكا بمنع مواطني عدد من الدول من الدخول الى هذا البلد
  • محامون من أجل فلسطين: الممارسات الأمريكية والإسرائيلية تنتهك حقوق الإنسان
  • تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
  • الشؤون الاجتماعية والعمل تصدر قراراً بإعادة احتساب الالتزامات المالية على المدة الضميمة
  • نقابات العمال الأمريكية تبدأ معركتها ضد الذكاء الاصطناعي
  • أخبار التكنولوجيا: أفضل هواتف ذكية في الأسواق وكيفية الاستفادة من ميزات الذكاء الاصطناعي بتطبيق جوجل NotebookLM
  • هل روبوتات الذكاء الاصطناعي أفضل منك؟ اكتشف ما لا تستطيع الروبوتات فعله