«الوطني» يرفع للحكومة 12 توصية في شأن الذكاء الاصطناعي
تاريخ النشر: 10th, March 2025 GMT
أبوظبي: سلام أبوشهاب
رفع المجلس الوطني الاتحادي 12 توصية أقرها مؤخراً إلى الحكومة، عقب مناقشة موضوع «سياسة الحكومة في شأن الذكاء الاصطناعي» في جلسة سابقة بحضور ممثلي الحكومة.
وأشار تقرير برلماني حديث حصلت «الخليج» على نسخة منه، إلى أن المجلس أقر 5 توصيات في محور التشريعات المنظمة للذكاء الاصطناعي شملت: العمل على مراجعة التشريعات السارية ذات العلاقة بالجوانب التقنية وحماية البيانات، لتستوعب مفهوم الذكاء الاصطناعي والتطورات التي يشهدها (كالمرسوم بقانون اتحادي رقم (45) لسنة 2021 بحماية البيانات الشخصية، والمرسوم بقانون اتحادي رقم (34) لسنة 2021 بمكافحة الشائعات والجرائم الإلكترونية وقانون اتحادي رقم (2) لسنة 2019 باستخدام تقنية المعلومات والاتصالات في المجالات الصحية) واستحداث إطار تشريعي خاص في الذكاء الاصطناعي، يتيح اطلاع الحكومة بإجراءات السلامة ومشاركة نتائج الاختبارات والمعلومات المهمة الأخرى من مطوري الذكاء الاصطناعي وضمان التنفيذ السليم للأعمال التي تنفذها التقنيات والحد من مخاطرها وتحديد المسؤوليات وحماية البيانات الشخصية وخاصة المتحصلة من الاستدلال البيولوجي، مع مراعاة عدم المبالغة في التشريعات بحيث لا تعوق التطور ولا تؤثر في قدرة الدولة على استقطاب الشركات العالمية العاملة في الذكاء الاصطناعي والاستثمار به.
كما تضمنت التوصيات إصدار اللائحة التنفيذية للمرسوم بقانون اتحادي رقم 45 لسنة 2021 بحماية البيانات الشخصية ونص على إصدارها خلال (6) أشهر من تاريخ صدور القانون وتحدد ضوابط معالجة البيانات الشخصية والالتزامات العامة للمتحكم والمعالج وأدوار مسؤول حماية البيانات وضوابط واشتراطات نقل البيانات عبر الحدود وغيرها من الأحكام اللازمة لتنفيذ القانون، وإنشاء مكتب الإمارات للبيانات بالمرسوم بقانون اتحادي رقم (44) لسنة 2021 بإنشاء مكتب الإمارات للبيانات وهو الجهة المعنية بتطبيق أحكام المرسوم بقانون اتحادي رقم (45) لسنة 2021 بحماية البيانات الشخصية وإيجاد تشريع ينظم حوكمة البيانات الحكومية، من حيث التصنيف والتخزين والتبادل والخصوصية والاستفادة المثلى من البيانات المتوافرة لدى مزودي البيانات، بما يحقق التوازن بين عملية نشر وتبادل المعلومات والحفاظ على سريتها وخصوصيتها، لكون الذكاء الاصطناعي يعتمد على مشاركة البيانات الحكومية.
وأقر المجلس خمس توصيات في محور السياسات والاستراتيجيات في الذكاء الاصطناعي، شملت إيجاد منصة موحدة لمشاركة البيانات المفتوحة بين المؤسسات الحكومية والخاصة، التي تستخدم لتدريب خوارزميات الذكاء الاصطناعي وأهمية هذه البيانات للشركات والقطاع الخاص وتأثيرها في جذب الاستثمارات وتوفير منصات تخزين عالية الأداء وأنظمة الشبكات المتخصصة العالية الأداء، لربط خوادم الحوسبة في ما بينها ونقل البيانات بسرعة وأمان، بالاستفادة من خدمات الشبكة الاتحادية السيادية التي توفرها هيئة تنظيم الاتصالات والحكومة الرقمية وتمكين رواد الأعمال والشركات الناشئة في الذكاء الاصطناعي، بتوفير التمويل والمساعدة في التسويق والدعم الفني وتوفير البنية التحتية والحوافز الضريبية والقوانين التي تعزز نمو الشركات الناشئة ودعم التعاون بين الشركات الناشئة والمؤسسات الأكاديمية والحكومية وتعزيز شراكات قوية بين القطاعين العام والخاص، للبحث والتطوير، ما سيؤثر إيجاباً في تنفيذ مخرجات استراتيجية الذكاء الاصطناعي وموقع الدولة في تقرير الذكاء الاصطناعي العالمي، والاستفادة من دمجه في الاستراتيجيات الخاصة بالأمن السيبراني مع مراعاة خصوصية البيانات والتركيز على زيادة الوعي والثقافة المجتمعية وتأهيل كفاءات وطنية للتعامل مع التحديات والمخاطر الأمنية المتعلقة به مثل التزييف العميق (deep fake) واستحداث أدوات واستراتيجيات للتصدي لهذه المخاطر وتطبيق الدليل الوطني لقياس الإنفاق على البحث والتطوير في القطاع الحكومي أداة مهمة لقياس وتحليل الإنفاق على البحث والتطوير وتوحيد أسلوب جمع البيانات وتوفيرها على مستوى الدولة وفقاً للمعايير الدولية.
كما أقر المجلس توصيتين في محور دعم الاستثمار والاستعداد للمتغيرات المستقبلية وهما: تطبيق مؤشرات قياس جودة الخدمات الحكومية المقدمة والمعتمدة على تطبيقات الذكاء الاصطناعي لقياس كفاءة الخدمات المقدمة للمواطنين وتزويد المهنيين الذين يتمتعون بخبرات رقمية وتحليلية بالتدريب اللازم لرفع مهاراتهم ليصبحوا اختصاصيين في الذكاء الاصطناعي ويمكن أن تشمل عملية رفع مهارات الموظفين المهنيين الحاليين في دولة الإمارات التدريب التخصصي أو الإعارة أو البعثات الدراسية خارج الدولة والتوسع في البرامج التدريب والتأهيل بالشراكة مع مؤسسات التعليم العالي.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات الذكاء الاصطناعي الوطني فی الذکاء الاصطناعی البیانات الشخصیة لسنة 2021
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر