“سدايا” تصدر تقريرًا حول تحيز الذكاء الاصطناعي وتحديات تبنيه
تاريخ النشر: 28th, February 2025 GMT
أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” تقريرًا متخصصًا عن “التحيز في أنظمة الذكاء الاصطناعي” بهدف تسليط الضوء على التحديات التي تواجه تطوير وتبني أنظمة الذكاء الاصطناعي في ظل توسـع كثير من الدول والمنظمات والشركات العالمية فـي تفعيل تطبيقات الذكاء الاصطناعي بشكل مضطرد في عددٍ من القطاعات الحساسة والحيوية، وما رافق ذلك من قلق متنام من تسرّب التحيز إلى أنظمة الذكاء الاصطناعـي لاسيما تلك المرتبطة باتخاذ القرار.
والتحيز في الذكاء الاصطناعي هو عبارة عن ميل غير عادل أو غير مقصود في مخرجات هذه الأنظمة وينشأ عن بيانات مُنحازة أو تصميم غير متوازن للخوارزميات، وقد يحدث في أنظمة الذكاء الاصطناعي بسبب التحيزات الإدراكية التي تؤدي إلى الانحراف عـن التفكير العقلاني أو السلوك الطبيعي في اتخاذ القرار أو الحكم على الأشياء، وغالبًا ما تنبع من التصورات الذهنية أو الاختصارات العقلية التي يستخدمها العقل البشري لتبسيط وتسريع عمليات الفهم واتخاذ القرارات أو بسبب التحيزات التقنية التي تنشأ عن تصميم وبناء أنظمة الذكاء الاصطناعـي وتطويرها وتنفيذها وتنبع من الجوانب الفنية للتقنية نفسها مثـل: التحيز في القياس أو الخوارزميات التي قد تؤثر في عدالة أو دقة أنظمة الذكاء الاصطناعـي.
وبذلت “سدايا” جهودًا كبيرة في تقليل التحيز في أنظمة الذكاء الاصطناعي من خلال تطوير معايير أخلاقية تضمن العدالة والشفافية وعدم التمييز، مع تحسين جودة مخرجات الذكاء الاصطناعي، ولضمان التزام تطبيقات الذكاء الاصطناعي بهذه المعايير، وأطلقت أداة متخصصة لقياس مدى الامتثال للمعايير الأخلاقية، مما يسهم في تعزيز استخدام الذكاء الاصطناعي بشكل مسؤول وعادل.
أخبار قد تهمك أكاديمية التنظيمات الرقمية تعقد برنامجًا تدريبيًا حول “التنظيمات المتطورة.. الذكاء الاصطناعي وأثره على الاقتصاد الرقمي” 27 فبراير 2025 - 8:43 مساءً منتدى مكة للحلال يشهد عددًا من الاتفاقيات لتعزيز النمو الاقتصادي واستثمار أحدث تقنيات الذكاء الاصطناعي في صناعة الحلال 27 فبراير 2025 - 12:19 صباحًاوفي إطار التعاون الدولي، عملت سدايا مع المنظمات الدولية المهتمة بأخلاقيات الذكاء الاصطناعي لضمان تطبيق أفضل المعايير العالمية لأخلاقيات الذكاء الاصطناعي، حيث أنشأت المملكة العربية السعودية ممثلة في “سدايا” مركزًا دوليًا لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) في الرياض بالتعاون مع منظمة اليونسكو؛ بهدف تعزيز الأبحاث الأخلاقية في الذكاء الاصطناعي ودراسة الحلول الممكنة لمعالجة تحديات الاستخدام الأخلاقي لهذه التقنية على المستوى الدولي.
كما نظّمت سدايا القمة العالمية للذكاء الاصطناعي لأعوام (2021 و2022 و2024) تحت شعار “الذكاء الاصطناعي من أجل خير البشرية” بهدف التوعية ومناقشة التحديات المرتبطة بالتحيز وتعزيز تطبيقات عادلة وشفافة تخدم الإنسانية، ولم تقتصر “سدايا” على الجانب التنظيمي فحسب، بل انتقلت إلى التطبيق العملي، حيث اتخذت عدة تدابير للحد من التحيزات في الأنظمة التي تقوم على تطويرها، بدءًا من مرحلة جمع البيانات وضمان جودتها ودقتها وتنوعها وحتى مرحلة نشر النموذج ، مثل “عيناي” ونموذج الكشف عن سرطان الثدي ونموذج التنبؤ بخطر الإصابة بالسكتة الدماغية.
وحذر التقرير من أنه يمكن أن يدخل الخطأ البشري والتحيز وسوء التقدير في دورة حياة بناء أنظمة الذكاء الاصطناعي، ويؤدي إلى خلق تحيّزات في تلك الأنظمة بصورة مقصودة أو غير مقصودة، وهذه التحيزات قد تقع في المراحل الأولية لصياغة المشكلة وجمع البيانات واستكشـافها إلى المراحل الحرجة كبناء النموذج والتنفيذ إلا أن فهـم مصادرها وكيفية ظهورها ووجود سياسات وإجراءات وضوابط مدروسة وأدوات تقنية مساعدة يُمكن أن يساعد على تجنب كثير منها ويخفف من حدة آثارها.
وأشار التقرير إلى إمكانية أن تنشأ التحيزات من البيانات المستخدمة لتدريـب الأنظمة أو الخوارزميات المستخدمة لمعالجة تلك البيانات أو حتى طريقة عـرض النتائج على المستخدمين مما قد تؤدي إلى تكريس صورة نمطية سلبية تجاه أحد الفئات، داعيًا إلى مراقبة ومراجعة النماذج قيد التشغيل بشكل مستمر لضمان الالتزام بالسياسات الأخلاقية المعتمدة بما يساعد في الكشف عن التحيزات مبكرًا، وتخفيفها قبل استفحال ضررها والبقاء على اطلاع بالبحوث الصادرة في هذا المجال، واختيار الموردين الملتزمين بتطوير تطبيقات الذكاء الاصطناعـي المسؤول.
وقدّم التقرير مجموعة من الحلول والتوصيات لمواجهة التحيز في الذكاء الاصطناعي، من بينها تطوير خوارزميات تتبنى مبادئ الشفافية والعدالة، وتحسين جودة البيانات من خلال ضمان تنوعها وتمثيلها لجميع الفئات، وزيادة الوعي بخطورة التحيز وتأثيره في المجتمعات لتحقيق التوازن والإنصاف، ووضع معايير وقواعد موحدة ومناسبة لتسمية البيانات لكي يتم تلافي عدم التوافق والاتساق في التسميات بين المسـميين مع الاستعانة ببعض الأدوات الناضجة في هذا المجال مثل اتفاقية المسـمين.
ودعا التقرير في ذلك الجانب إلى تنويع فريق العمل المسـؤول عن تطوير ونشر أنظمة الذكاء الاصطناعي وشموليته، وصيانة البنية التحتية لأنظمة الذكاء الاصطناعي لضمان الحفاظ على كفاءة هذه الأنظمة ووقايتها من تسرب التحيزات إليها، والتأكد بشكل دوري من كونها تعمل بكفاءة إلى جانب اعتماد إجراءات للتخفيف من تحيز البيانات عند ملاحظتهـا، وإجراءات لحماية بيانات المستفيدين، وعدم نشر التطبيقات إلا بعد مراجعتها من فرق الحوكمة المتخصصة والمُدربة على البحث عـن أنواع التحيزات في جميع دورات حياة بناء أنظمة الـذكاء الاصطناعـي والإبلاغ
عـن أي مخاوف عند توقعها.
ويمكن الاطلاع على التقرير من خلال زيارة الرابط التالي: https://2u.pw/z2VXywn4 .
المصدر: صحيفة المناطق السعودية
كلمات دلالية: الذكاء الاصطناعي الهيئة السعودية للبيانات والذكاء الاصطناعي الذکاء الاصطناعـی التحیز فی ا
إقرأ أيضاً:
مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
في حادثة غريبة من نوعها، قام مساعد الذكاء الاصطناعي الموجود في منصة "واتساب" بتوليد رقم الهاتف الخاص بأحد المستخدمين على أنه رقم خدمة العملاء الخاص بشركة " ترانس بينين إكسبريس" (TransPennine Express) بالمملكة المتحدة، وذلك بحسب تقرير "ذا غارديان".
كان باري سميثورست ينتظر القطار السريع المتجه إلى مدينة مانشستر بيكاديللي، وعندما تأخر القطار طلب من مساعد الذكاء الاصطناعي الموجود في "واتساب" الذي يعتمد على نماذج "لاما" (LLMA) من "ميتا" تزويده برقم الهاتف الخاص بخدمة عملاء الشركة للتواصل معهم، جاء الرد مع رقم هاتف مستخدم آخر وهو جيمس غراي دون وجود ما يربط بينه وبين خدمة عملاء الشركة أو سميثورست، سواءً كان في الموقع الجغرافي أو البيانات أو حتى تقاطع الدوائر الاجتماعية والوظائف بينهما.
وعندما واجه سميثورست مساعد الذكاء الاصطناعي في "واتساب" بأن الرقم خطأ ويعود لمستخدم آخر، ما كان منه إلا الاعتذار والتأكيد أن هذا الرقم مولد بشكل عشوائي ولا يعود إلى أي قاعدة بيانات، رغم إشارته إلى استخدام قاعدة بيانات عشوائية.
وعن هذا الأمر قال مايك ستانوب، المدير الإداري لشركة "كاروثرز وجاكسون للاستشارات الإستراتيجية في مجال البيانات" (Carruthers and Jackson) أثناء حديثه مع "ذا غارديان": "هذا مثال رائع على فشل الذكاء الاصطناعي. إذا كان مهندسو ميتا يصممون أساليب "الكذب الأبيض" في أنظمة الذكاء الاصطناعي الخاصة بهم، فإنهم يجب أن يعلموا الجمهور".
ومن جانبها قالت "ميتا" على لسان المتحدث الرسمي إن رقم الهاتف المذكور متاح بشكل عام عبر الإنترنت ويتشارك بعض الأرقام مع رقم هاتف خدمة العملاء الخاص بشركة "ترانس بينين إكسبريس"، مؤكدا أن النموذج تدرب على قواعد البيانات الخاصة بالشركة وهي لا تضم أرقام هواتف المستخدمين، بحسب ما جاء في تقرير "ذا غارديان".
إعلانويمثل هذا الموقف الأحدث في سلسلة من هلوسات الذكاء الاصطناعي من عدة شركات ونماذج مختلفة، بما فيها "شات جي بي تي" الذي أكد أن رجلا قتل أبناءه ومازال يقضي عقوبته في السجن رغم أن الحقيقة عكس ذلك.