لرفع مستوى الوعي.."سدايا" تُطلق النسخة الثانية من وثيقة مبادئ الذكاء الاصطناعي التوليدي
تاريخ النشر: 11th, January 2024 GMT
أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" اليوم النسخة الثانية من وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) لدى العموم من القطاع الخاص والقطاع غير الربحي والأفراد.
ويأتي ذلك بغية رفع مستوى الوعي باستخدامات تقنيات الذكاء التوليدي المتعددة في مختلف مناحي الحياة، وتعد نقلة نوعية في عصرنا الحالي في قدرتها على تفاعل الآلات مع المستخدمين.
وتتمتع تقنيات الذكاء الاصطناعي التوليدي بمزايا عدة يمكن توظيفها في مختلف الأعمال سواءً على مستوى المؤسسات أو الأفراد، وانطلاقًا من هذا المبدأ فقد حرصت سدايا على تعزيز الأدوار الإيجابية لاستخدامات الذكاء الاصطناعي التوليدي مع تخفيف الأخطار المرتبطة به من خلال تطبيق مبادئ الذكاء الاصطناعي وتبني التدابير الوقائية لتفادي الوقوع في: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز، أو مخالفة أنظمة الملكية الفكرية، وحقوق النشر.
#سدايا تُطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي لتبنّي استخدامها للعموم.
للاطلاع: https://t.co/OhNod4Z4a1 pic.twitter.com/caSfGNHBll— SDAIA (@SDAIA_SA) January 11, 2024استخدام ومعالجة البيانات
أطلقت "سدايا" أمس المبادئ الخاصة بالقطاعات الحكومية، واليوم تُقدّم الوثيقة المعنية بالعموم كمبادئ توجيهية تتعلق باستخدام ومعالجة البيانات في أدوات الذكاء الاصطناعي التوليدي مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات، وتسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام هذه التقنيات.
وتتوافق الوثيقة مع الأنظمة والسياسات الحالية في المملكة وتدعم الامتثال لها بما في ذلك اخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.
وتؤكد الوثيقة على أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي في جميع مراحل دورة حياة هذه الأدوات من أجل تسخير فوائدها والتخفيف من المخاطر التي قد تقع لا سمح الله.
خريج وتبحث عن عمل؟ فرصتك الآن مع برنامج #سدايا المستقبل.
سجل الآن:https://t.co/l1gabzLUeR pic.twitter.com/xfzecAcS3X— SDAIA (@SDAIA_SA) January 11, 2024البيانات الحكومية في أدوات الذكاء الاصطناعي
ضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي : النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية ، والمنافع الاجتماعية والبيئية.
ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة فضلاً عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.
وأكدت الوثيقة على جملة من المبادئ ومنها تحقيق المنافع الاجتماعية والبيئية التي تدعو إلى تعزيز الأثر الإيجابي والمفيد للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع ككل وتركز على الأهداف والغايات المستدامة دون أن تؤثر سلبًا على الإنسان بل تُسهم في تمكينه واستكمال التقدم التقني والاجتماعي والبيئي مع السعي إلى معالجة التحديات المرتبطة بها.
كما أكدت على ضرورة بناء واستخدام أدوات الذكاء الاصطناعي التوليدي وفق منهجية عادلة وأخلاقية تستند إلى حقوق الإنسان والقيم الثقافية الأساسية من أجل إحداث أثر إيجابي على الأطراف المعنية والمجتمعات المحلية والمساهمة في تحقيق الأهداف الاستراتيجية من أجل تحقيق المصلحة العامة للبشرية وازدهارها.
تبعات قانونيةقد يترتب على استخدام تقنيات الذكاء الاصطناعي التوليدي تبعات قانونية وأخلاقية لذا شدّدت الوثيقة على أهمية استشارة أصحاب الاختصاص القانوني وذوي الصلة لتقييم الأخطار المرتبطة من استخدام أدوات هذه التقنيات لتفادي الوقوع في الأخطاء القانونية مع الالتزام بالتشريعات ذوات الصلة بما في ذلك نظام حماية البيانات الشخصية لضمان الامتثال وحماية حقوق المستخدم والتأكد من سلامة المحتوى الذي تم إعداده يحترم حقوق الملكية الفكرية وملتزم بحقوق النشر.
وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانيات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.
المصدر: صحيفة اليوم
كلمات دلالية: واس الرياض سدايا الذكاء الاصطناعي الذكاء الاصطناعي التوليدي مبادئ الذکاء الاصطناعی من أجل
إقرأ أيضاً:
دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي
يحتاج العالم بشكل عاجل إلى مقاربة شاملة لتنظيم الذكاء الاصطناعي للحؤول دون أن يؤدي أي تفلت في هذا المجال إلى تفاقم المخاطر وعدم المساواة، على ما تؤكد الأمينة العامة للاتحاد الدولي للاتصالات، وهي وكالة متخصصة تابعة للأمم المتحدة، في مقابلة صحفية.
تأمل الأميركية دورين بوغدان-مارتن، التي تترأس الاتحاد الدولي للاتصالات منذ عام 2023، أن "يُفيد الذكاء الاصطناعي البشرية جمعاء حقا"، على ما قالت خلال المقابلة التي أجريت معها هذا الأسبوع في جنيف.
وأكدت أن تنظيم الذكاء الاصطناعي أمر أساسي في ظل تزايد المخاوف بشأن مخاطر هذه التقنية، بينها القلق من فقدان الوظائف ومن المعلومات المضللة وانتشار "التزييف العميق" (محتوى مُتلاعب به باستخدام الذكاء الاصطناعي)، وزعزعة النسيج الاجتماعي.
وأضافت "من المُلحّ السعي لوضع الإطار المناسب"، على أن يتم ذلك من خلال "مقاربة شاملة".
تأتي تعليقاتها بعد أن كشف البيت الأبيض أخيرا عن خطة عمل لتعزيز التطوير الحر لنماذج الذكاء الاصطناعي الأميركية في الولايات المتحدة وخارجها، رافضا أي مخاوف بشأن إساءة استخدامها المحتملة.
وقد رفضت بوغدان-مارتن التعليق على هذا التطور الأخير، موضحة أنها "لا تزال تحاول استيعابه".
وقالت "أعتقد أن هناك مقاربات مختلفة" في المسألة، مضيفة "هناك مقاربة الاتحاد الأوروبي، وثمة المقاربة الصينية. واليوم، نشهد على المقاربة الأميركية. أعتقد أن ما نحتاجه هو تفاعل هذه المقاربات".
وأشارت أيضا إلى أن "85% من الدول لا تزال تفتقر إلى سياسات أو استراتيجيات للذكاء الاصطناعي".
ولفتت بوغدان-مارتن إلى أن قضايا الابتكار وبناء القدرات والاستثمار في البنية التحتية ترتدي أهمية محورية بشكل خاص في المناقشات المتعلقة بالتنظيم.
لكنها أبدت اعتقادا بأن "النقاش لا يزال بحاجة إلى أن يُجرى على المستوى العالمي لتحديد مقدار التنظيم اللازم".
أمضت المسؤولة الرفيعة المستوى معظم مسيرتها المهنية في الاتحاد الدولي للاتصالات، وتعتقد أن هذه الوكالة الأممية المسؤولة عن تطوير خدمات وشبكات وتقنيات الاتصالات في جميع أنحاء العالم، تتمتع بمكانة جيدة للمساعدة في تسهيل الحوار بين الدول حول تنظيم الذكاء الاصطناعي.
وأكدت أن "الحاجة إلى نهج عالمي تبدو أساسية بالنسبة لي"، محذرة من أن "المقاربات المجزأة لن تخدم الجميع ولن تصل إليهم".