رئيس سدايا: المملكة مثال دولي يقتدى به في الذكاء الاصطناعي المسؤول والأخلاقي
تاريخ النشر: 15th, May 2024 GMT
أكد رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" الدكتور عبدالله بن شرف الغامدي , أن المملكة العربية السعودية تعد مثالاً دوليًا يُقتدى به في الذكاء الاصطناعي المسؤول والأخلاقي , ولها عدد من الجهود الوطنية في ذلك الجانب , وفي مقدمتها موافقة مجلس الوزراء على إنشاء المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي ويكون مقره مدينة الرياض ويتمتع بالشخصية الاعتبارية والاستقلال المالي والإداري.
وأوضح أنه سيتم الاحتفاء قريبًا بإطارنا الوطني لأخلاقيات الذكاء الاصطناعي في جنيف خلال منتدى القمة العالمية لمجتمع المعلومات، ويعد ذلك اعترافاً جديداً بالتزام المملكة وحرصها الدائم بتطبيق هذه الأخلاقيات على مستوى العالم.
جاء ذلك في الكلمة التي ألقاها اليوم , خلال افتتاح أعمال جلسة المشاورات الدولية حول الحوكمة الدولية للذكاء الاصطناعي , التي نظمتها "سدايا" بالتعاون مع الهيئة الاستشارية للذكاء الاصطناعي التابعة لمنظمة الأمم المتحدة ومنظمة العالم الإسلامي للتربية والعلوم والثقافة "الإيسيسكو"، بحضور معالي مدير عام منظمة الإيسيسكو الدكتور سالم بن محمد المالك، وعدد من خبراء حوكمة الذكاء الاصطناعي بالعالم، وذلك بمقر الهيئة بمدينة الرياض.
وأعرب الدكتور الغامدي عن ترحيبه بأعضاء الهيئة الاستشارية رفيعة المستوى للذكاء الاصطناعي من أصحاب المصلحة المتعددين التي أعلن عنها الأمين العام للأمم المتحدة أنطونيو غوتيريش العام الماضي لمعالجة قضايا الحوكمة الدولية للذكاء الاصطناعي، مشيرا إلى أن هذه الجلسة بادرة تمهيدية لانعقاد النسخة الثالثة من القمة العالمية للذكاء الاصطناعي المقرر عقدها في الرياض في شهر سبتمبر المقبل.
وقال : بينما نمضي قُدماً في مبادراتنا الطموحة في الذكاء الاصطناعي الأخلاقي نستلهم كلمات صاحب السمو الملكي الأمير محمد بن سلمان بن عبدالعزيز آل سعود ولي العهد رئيس مجلس الوزراء - حفظه الله - " أدعو هنا كافة الحالمين والمبدعين والمستثمرين وقادة الرأي للانضمام لنا هنا في المملكة لنحقق معاً هذا الطموح ونبنيَ نموذجاً رائداً لإطلاق قيمة البيانات والذكاء الاصطناعي لبناء اقتصادات المعرفة والارتقاء بأجيالنا الحاضرة والقادمة"، مببنًا أنه يمكن الاستفادة من هذه الفرصة لتشكيل رؤى متوافقة، وبناء جسور التفاهم، وإرساء الأساس لإطار عالمي لحوكمة الذكاء الاصطناعي يتسم بالإنصاف والفاعلية.
وأضاف أن القمة العالمية للذكاء الاصطناعي تُعدّ منصة عالمية تجمع قادة وخبراء الذكاء الاصطناعي من جميع أنحاء العالم لتشكيل مستقبل الذكاء الاصطناعي، مفيدًا أن هذا اليوم يمثل خطوة مهمة نحو تشكيل مستقبل حوكمة الذكاء الاصطناعي، حيث نستضيف أحد أكبر جلسات التشاور الدولية بالتعاون مع منظمة العالم الإسلامي للتربية والعلوم والثقافة التي يمثلها خبراء 53 دولة من مختلف قارات العالم؛ لتبادل وجهات النظر حول التقرير المبدئي للهيئة الاستشارية بشأن الحوكمة الدولية للذكاء الاصطناعي.
وأفاد أن الذكاء الاصطناعي يجلب تحديات معقدة تلعب دوراً حاسماً في أمننا وخصوصيتنا وعملنا ومعاييرنا الثقافية، واستجابة لذلك، تتحد الحكومات والشركات والمنظمات الدولية لتعزيز الوعي وصياغة أطر حوكمة قوية للذكاء الاصطناعي، مؤكداً أن المملكة ملتزمة بتسخير قوة الذكاء الاصطناعي بشكل مسؤول وأخلاقي.
من جهته أكد مدير عام منظمة الإيسيسكو الدكتور سالم المالك أن الذكاء الاصطناعي هو المستقبل، وهذه النقلة النوعية ليست مجرد احتمالية بعيدة بل واقعاً يتكَشَّفُ أمامنا، وهو ما يفرض اعتماد نهج استباقي وتكاملي وذو رؤية مستقبلية لإدارة هذا التحول، مشيراً إلى أن الذكاء الاصطناعي أصبح حاضِراً في كل مكان، حيث إن 77% من الأجهزة التي نستخدمها في حاضرنا تحتوي شكلاً من أشكال الذكاء الاصطناعي.
وبين أنه في ظلِّ النمو المتسارع لتقنيات الذكاء الاصطناعي، تواجهنا آثارٌ أخلاقيةٌ وقانونيةٌ ومجتمعيةٌ معقدة؛ مما يستدعي الحاجةَ المُلحَّةَ إلى حوكمة فعالة للذكاء الاصطناعي، مبينًا أن الإيسيسكو تعمل على دمج الذكاء الاصطناعي بشكل سلس في خطط العمل والبرامج التنفيذية للمنظمة على امتداد دولها الأعضاء وأولت الأهمية القصوى للأبعاد الاستراتيجية والحوكمة والأخلاقيات المرتبطة بالذكاء الاصطناعي ليحصد منافعها جميع الدول الأعضاء.
ودعا إلى اغتنام فرصةَ انعقاد جلسة المشاورات هذه ليتم التأكيد من جديد على التزام الجميع بمستقبل لا يكون فيه الذكاء الاصطناعي مجرد قوة للتغيير، بل أداة للتمكين والنهوض بالأجيال القادمة.
المصدر: صحيفة عاجل
كلمات دلالية: الذكاء الاصطناعي الذکاء الاصطناعی للذکاء الاصطناعی الاصطناعی ا
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر