رئيس سدايا: المملكة السادسة عالميًا في مؤشر تطور الحكومة الإلكترونية
تاريخ النشر: 12th, February 2025 GMT
أكد رئيس الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" د. عبدالله بن شرف الغامدي، تبوء المملكة مقدمة أهم المؤشرات العالمية في التقنية والبيانات والذكاء الاصطناعي، ومنها حصولها على المرتبة السادسة عالميًا في مؤشر تطور الحكومة الإلكترونية (EGDI) التابع للأمم المتحدة لعام 2024.
بالإضافة إلى تصنيفها في مؤشر الذكاء الاصطناعي العالمي ضمن أهم 14 دولة عالميًا والأولى على مستوى المنطقة.
واستعرض جهود المملكة المحلية والدولية في مجال البيانات والذكاء الاصطناعي.
وأشار إلى أن تقرير تقييم الجاهزية للذكاء الاصطناعي (RAM) الصادر أخيرًا عن منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) استشهد بـ"سدايا"، بصفتها نموذجًا عالميًا رائدًا من خلال توحيد البيانات والذكاء الاصطناعي تحت كيان واحد متكامل. الشراكة الاستراتيجية مع اليونسكو
وقال رئيس سدايا في كلمة له خلال الجلسة الوزارية في اليونسكو المنعقدة على هامش قمة العمل من أجل الذكاء الاصطناعي بعنوان (تبادل وزاري: الدروس المستفادة والخطوات القادمة): إن المملكة ملتزمة بالشراكة الاستراتيجية مع منظمة (اليونسكو)، لتعزيز أجندة الذكاء الاصطناعي الأخلاقي على المستوى العالمي.
ومن ذلك ما أثمر عنه استضافة المملكة مقر المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) التابع لليونسكو، والانضمام إلى أول 10 دول تكمل تقرير تقييم الجاهزية للذكاء الاصطناعي (RAM).
حصدت #المملكة_العربية_السعودية المرتبة 11 عالميًا من 40 دولة في العالم والأولى عربيًا وإقليميًا في سلامة الذكاء الاصطناعي، وفقًا للمؤشر العالمي لسلامة #الذكاء_الاصطناعي (GAISI).#اليوم | @SDAIA_SA
للمزيد: https://t.co/x9LErQ2oM2 pic.twitter.com/YH6M7SktoK— صحيفة اليوم (@alyaum) February 12, 2025
وأضاف : لقد كان تقرير اليونسكو فرصة للتأمل في رحلة المملكة بالذكاء الاصطناعي التي بدأت بإنشاء الهيئة السعودية للبيانات والذكاء الاصطناعي عام 2019، وإعداد الإستراتيجية الوطنية للبيانات والذكاء الاصطناعي التي أعلن عنها عام 2020، ووضعت المملكة في المرتبة الأولى عالميًا في استراتيجية الحكومة للذكاء الاصطناعي.
وأوضح د. عبدالله بن شرف الغامدي أن تقرير اليونسكو تناول أيضًا النهج المتوازن للمملكة في تنظيم الذكاء الاصطناعي الذي يستند إلى إطار أخلاقيات الذكاء الاصطناعي، وتدعمه 8 أدوات تنظيمية توجه المطورين ومستخدمي الذكاء الاصطناعي.
ولفت إلى أن المملكة ستكثف جهودها في الذكاء الاصطناعي وفقًا لتوصيات تقرير RAM الصادر عن اليونسكو عبر جميع الأبعاد.
رئيس #سدايا: المملكة تتبوأ مقدمة أهم المؤشرات التقنية العالمية.. و"اليونسكو" تستشهد بسدايا بصفتها نموذجًا عالميًا في دمج البيانات والذكاء الاصطناعي تحت كيان حكومي متكامل.https://t.co/ArTpdU19wz#واس_عام pic.twitter.com/zTC4Q8CWiI— واس العام (@SPAregions) February 11, 2025
وفيما يتعلق بالدول التي تخطط لإجراء تقرير RAM الخاص بها، أشار إلى أن المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) على أتم استعداد لتقديم الإرشاد والدعم لها خلال هذه الرحلة.
شهادات اعتماد للشركات سعوديةواستعرض د. عبدالله الغامدي في كلمته، جهود المملكة المحلية والدولية في مجال البيانات والذكاء الاصطناعي، وقال: لقد جرى أخيرًا في الرياض، تسليم 46 شركة سعودية متخصصة في الذكاء الاصطناعي شهادات اعتماد ضمن برنامج أخلاقيات الذكاء الاصطناعي، في خطوة تعكس التزام المملكة بالذكاء الاصطناعي الآمن والأخلاقي.
وتابع: عليه احتلت بلادنا المرتبة 11 عالميًا والأولى إقليميا في مؤشر سلامة الذكاء الاصطناعي العالمي، الذي أعلن عنه على هامش أعمال قمة العمل من أجل الذكاء الاصطناعي المنعقدة حاليًا.
.article-img-ratio{ display:block;padding-bottom: 67%;position:relative; overflow: hidden;height:0px; } .article-img-ratio img{ object-fit: contain; object-position: center; position: absolute; height: 100% !important;padding:0px; margin: auto; width: 100%; } رئيس سدايا يؤكد المملكة تتبوأ مقدمة أهم المؤشرات التقنية العالمية - حساب سدايا على إكس
وأفاد بأنه في مجال بناء القدرات الوطنية، دربت سدايا أكثر من 700 ألف مواطن ومواطنة على الذكاء الاصطناعي منذ عام 2020، بهدف تمكين 40% من القوى العاملة بالمهارات اللازمة للتكيف مع عالم مدعوم بالذكاء الاصطناعي.
وأضاف: عملت المملكة ضمن رؤيتها الطموحة 2030 ودعمها لأهداف التنمية المستدامة للأمم المتحدة 2030، على رفع مستوى مشاركة المرأة السعودية في قطاع التكنولوجيا حتى وصلت إلى 35%.
وعلى المستوى الدولي نظمت "سدايا" في الرياض أخيرًا الأولمبياد الدولي للذكاء الاصطناعي بالتعاون مع سلوفينيا، وبحضور 25 دولة.
حضر الجلسة رئيس مجلس الوزراء في جمهورية البيرو غوستافو لينو أدريانزين أولايا، وعدد من وزراء التقنية والابتكار والاتصالات في دول العالم، وممثلو الدول الأعضاء لدى منظمة اليونسكو.
المصدر: صحيفة اليوم
كلمات دلالية: واس باريس الهيئة السعودية للبيانات والذكاء الاصطناعي الهيئة السعودية للبيانات والذكاء الاصطناعي سدايا سدايا المؤشرات العالمية في التقنية الذكاء الاصطناعي تطور الحكومة الإلكترونية مؤشر تطور الحكومة الإلكترونية اليونسكو البیانات والذکاء الاصطناعی الذکاء الاصطناعی للذکاء الاصطناعی الاصطناعی ا عالمی ا فی ا فی مؤشر
إقرأ أيضاً:
هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
مؤيد الزعبي
بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟
قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.
لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.
الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.
ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.
في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.
حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.
وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.
يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.
إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.
في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.
رابط مختصر