دافوس، سويسرا (الاتحاد)

أخبار ذات صلة 55 ألف طلب لمركبات الأجرة هاتفياً لـ«نقل عجمان» وفد «قضاء أبوظبي» يطلع على إدارة المنشآت العقابية والإصلاحية في هولندا

بحثت لجنة حوكمة الذكاء الاصطناعي سبل دعم جهود الحكومات في تهيئة البيئة الحاضنة والممكنة لابتكار الحلول المدعومة بالذكاء الاصطناعي، واستخدامها بشكل فعال، ما يترجم أهداف اللجنة وسعيها المستمر لتصميم أطر عمل جديدة، وتوسيع دائرة الشراكات بين القطاعين الحكومي والخاص، في وضع ضوابط تسهم في تحقيق أهداف اللجنة بتمكين الحكومات والأفراد والمؤسسات حول العالم من الوصول إلى حلول الذكاء الاصطناعي والاستفادة منها في مختلف المجالات.

جاء ذلك، خلال اجتماع اللجنة الذي عقد ضمن أعمال الدورة الـ 54 لاجتماعات المنتدى الاقتصادي العالمي، التي تستضيفها مدينة دافوس بسويسرا خلال الفترة من 15 إلى 19 يناير، وتشهد مشاركة إماراتية كبيرة بأكثر من 100 شخصية من رؤساء الشركات والقطاع الخاص والمسؤولين الحكوميين.
وتمثل لجنة حوكمة الذكاء الاصطناعي مبادرة من المنتدى الاقتصادي العالمي، تضم 10 من القيادات العالمية البارزة في مجالات الذكاء الاصطناعي والتكنولوجيا، وتجمع الحكومات والشركات والخبراء، في جهد عالمي مشترك لتطوير الذكاء الاصطناعي وتطبيقه وإدارته بشكل مسؤول، وضمان الوصول الشامل إلى هذه التكنولوجيا في جميع أنحاء العالم، وتحسين جودة البيانات وتوافرها.

حوكمة الذكاء الاصطناعي
وأكد معالي عمر سلطان العلماء وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد في دولة الإمارات، عضو لجنة حوكمة الذكاء الاصطناعي، أن حكومة دولة الإمارات تركز على استشراف المستقبل الرقمي ورسم توجهاته والبناء على إمكاناته الكبيرة بما ينعكس إيجاباً على الأجيال القادمة، ترجمة لتوجيهات القيادة الرشيدة بالتركيز على تطوير تكنولوجيا المستقبل والتحول الرقمي الشامل، لتعزيز ريادة الدولة وتنافسيتها.
وقال معاليه إن التعاون الدولي ومشاركة الخبرات والمعارف عاملان أساسيان في دعم جهود تطوير المشهد التكنولوجي العالمي وبناء مستقبل رقمي واعد، وتمكين المجتمعات من الاستفادة من حلوله المبتكرة، مع ضمان تطوير الأطر التنظيمية المعززة للاستخدام المسؤول لهذه الحلول، وترسيخ البيئة المحفزة لابتكار المزيد منها على أسس استباقية.

الوصول الرقمي
وقالت باولا إنجابير، وزيرة تكنولوجيا المعلومات والاتصالات والابتكار في رواندا: «تهدف مشاركة رواندا في لجنة حوكمة الذكاء الاصطناعي إلى ضمان أن رواندا شريك أساسي في تشكيل مستقبل حوكمة الذكاء الاصطناعي وتعزيز الوصول الرقمي وتماشياً مع هذه الجهود، سيستضيف مركز رواندا للثورة الصناعية الرابعة، بالتعاون مع المنتدى الاقتصادي العالمي، قمة رفيعة المستوى حول الذكاء الاصطناعي في إفريقيا في نهاية عام 2024.
من جهتها، قالت كاثي لي رئيس قسم الذكاء الاصطناعي والبيانات والميتافيرس بمؤسسة المنتدى الاقتصادي العالمي: إن لجنة حوكمة الذكاء الاصطناعي تلعب دوراً حاسماً في تعزيز الوصول إلى الموارد المتعلقة بالذكاء الاصطناعي، والمساهمة في ترسيخ نظام بيئي أكثر شمولاً ومسؤولية للذكاء الاصطناعي على مستوى العالم.

الاستخدامات المسؤولة 
قالت غاري كوهن نائب رئيس شركة«آي بي إم»: في حين أننا نواصل في تطوير قطاع الذكاء الاصطناعي في شركة «آي بي إم»، يجب علينا الأخذ بعين الاعتبار الاستخدامات المسؤولة لهذه التكنولوجيا والتعاون مع الحكومات والشركات والمجتمعات على مستوى العالم لإنشاء أطر أخلاقية وسياسية تحدد كيفية تصميم الذكاء الاصطناعي.

تعاون القطاعين الحكومي والخاص 
قال بول دوجيرتي، كبير مسؤولي الابتكار التكنولوجي في شركة «أكسنتشر»: يتميز الذكاء الاصطناعي بتسارع تطوره الكبير على مدى الوقت ما يجعل تعاون القطاعين الحكومي والخاص أولوية لتبادل الأفكار وأفضل الممارسات لبناء أنظمة ذكاء اصطناعي مسؤولة وأخلاقية وتوسيع نطاقه بشكل كبير.

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي عمر العلماء الإمارات المنتدى الاقتصادي العالمي منتدى دافوس منتدى دافوس الاقتصادي لجنة حوکمة الذکاء الاصطناعی المنتدى الاقتصادی العالمی

إقرأ أيضاً:

دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي

أظهرت دراسة جديدة نُشرت في مجلة "نيتشر" (Nature) أن الناس يميلون إلى التصرف بشكل غير نزيه عندما يفوضون المهام إلى أنظمة الذكاء الاصطناعي، ووضحت الدراسة أن بعض طرق التفاعل مع الذكاء الاصطناعي قد تزيد بشكل كبير من حالات الغش، وأن هذه الأنظمة أكثر عرضة للامتثال للطلبات غير الأخلاقية من البشر.

ومن المعروف أن الذكاء الاصطناعي هو عبارة عن أنظمة برمجية قادرة على أداء مهام تتطلب ذكاء بشريا مثل اتخاذ القرارات وفهم اللغة، ومع تزايد الاعتماد على هذه الأنظمة في مجالات الحياة المختلفة، من إدارة الاستثمارات إلى قيادة السيارات ظهر مفهوم "تفويض الآلة"، وهو ما أثار تساؤلات حول مخاطره الأخلاقية المحتملة.

وسعى فريق دولي من الباحثين، بقيادة نيلس كوبيس من جامعة "دويسبورغ-إيسن" وزوي رحوان من معهد "ماكس بلانك" للتنمية البشرية، إلى دراسة ما إذا كان تفويض مهمة إلى آلة أو نظام ذكاء اصطناعي سيجعل الناس أكثر ميلا للتصرف بطريقة غير نزيهة لتحقيق مكاسب شخصية.

وكانت الفرضية الأساسية هي أن الناس غالبا ما يتجنبون التصرف بشكل غير أخلاقي بسبب التكلفة الأخلاقية، أي أنهم يشعرون بالذنب أو الخوف من نظرة الناس إليهم على أنهم غير نزيهين، ولكن عندما يفوض الشخص الفعل إلى آلة بدلا من القيام به بنفسه، فإن ذلك قد يخلق مسافة نفسية بينه وبين السلوك غير الأخلاقي.

كشفت نتائج الدراسة عن مجموعة من المخاوف المرتبطة بالاعتماد المتزايد على الذكاء الاصطناعي (وكالة الأناضول)تجارب شملت آلاف المشاركين

استعان كوبيس ورحوان بآلاف المشاركين لخوض 13 تجربة، حيث استخدموا خوارزميات ذكاء اصطناعي متعددة، منها نماذج بسيطة صمّمها الباحثون بأنفسهم، بالإضافة إلى 4 نماذج لغوية كبرى مثل "شات جي بي تي-4 أو" و"كلود".

وشملت بعض التجارب تمرينا كلاسيكيا يتمثل في رمي النرد والإبلاغ عن النتيجة، حيث يحصل المشاركون على مكافآت مالية تتوافق مع الرقم الذي يصرحون به -مما فتح لهم الباب أمام إمكانية الغش- أما التجارب الأخرى فكانت على شكل لعبة للتهرب الضريبي، حيث يمكن للمشاركين تضخيم أرباحهم المعلنة للفوز بمبالغ أكبر، وذكر كوبيس أن هدف هذه التمارين هو الوصول إلى جوهر العديد من المعضلات الأخلاقية مثل مواجهة الإغراء وخرق القواعد لتحقيق مكاسب.

إعلان

وقد أُجريت هذه المهام بدرجات متفاوتة من تدخل الذكاء الاصطناعي، مثل الإبلاغ عن الأرقام مباشرة أو إعطاء الذكاء الاصطناعي قواعد حول الأرقام التي يجب الإبلاغ عنها، أو تزويده ببيانات تدريب متحيزة أو غير متحيزة، أو إعطاء تعليمات حول مدى أولوية تحقيق الربح مقابل الصدق.

وعندما طُلب من المشاركين الإبلاغ عن نتائج رمي النرد، لم يتجاوز معدل الغش 5%، ولكن عندما فوّضوا القرار لخوارزمية الذكاء الاصطناعي بإعطائها هدفا قائما على الربح أو الصدق انقلبت النتائج تقريبا، حيث ارتفع السلوك غير النزيه إلى 88%، حيث أن بعض المستخدمين أعطوا تعليمات صريحة للذكاء الاصطناعي بالغش.

وفي تجربة النرد كتب أحد المشاركين "فقط افعل ما تعتقد أنه الصواب.. ولكن إذا تمكنت من كسب المزيد من المال فلن أكون حزينا على الإطلاق"، أما في تجربة التهرب الضريبي قال أحد المشاركين "الضرائب سرقة، أبلغ أن الدخل هو 0″، ومع ذلك، كان معظم المشاركين أكثر ميلا لإعطاء الذكاء الاصطناعي أهدافا مثل تعظيم الأرباح، ما يدفعه إلى الغش ضمنيا بدلا من إصدار أمر مباشر بالغش.

وفي تجارب أخرى، تلقى كل من المشاركين ونماذج اللغة الكبيرة تعليمات محددة بأن يكونوا صادقين تماما، أو صادقين جزئيا أو غير صادقين، وعندما طُلب من الطرفين أن يغشّوا بشكل جزئي، لاحظ الباحثون أن الذكاء الاصطناعي كان يواجه صعوبة أحيانا في فهم هذه التعليمات الدقيقة، وانتهى به الأمر بالتصرف بطريقة أكثر خداعا من البشر، أما عندما طُلب من البشر والآلات الغش بالكامل، فقد أظهرت النتائج اختلافا واضحا، إذ تبين أن الآلات كانت سعيدة بالامتثال، بينما البشر لم يكونوا كذلك بل شعروا بالخجل من أنفسهم.

وفي تجربة منفصلة، اختبر الفريق أنواع الحواجز أو القيود التي قد تحد من ميل الذكاء الاصطناعي إلى الامتثال للغش، وعندما اعتمد الباحثون على إعدادات الحماية الافتراضية المدمجة في النماذج، وجدوا أنها كانت ملتزمة جدا بالغش الكامل، خاصة في تجربة رمي النرد.

كما طلب الفريق من "شات جي بي تي" أن يولّد مطالبات تساعد في تشجيع النماذج على التحلي بالصدق، استنادا إلى البيانات الأخلاقية الصادرة عن الشركات المصممة لها، وقد لخّص النموذج هذه البيانات بعبارة "تذكّر أن الكذب وإلحاق الضرر ينتهكان مبادئ العدالة والنزاهة"، ولكن هذه التوجيهات كان لها أثر محدود أو متوسط في تقليل السلوك غير النزيه، وقال رحوان "لغة الشركات نفسها لم تكن كافية لردع الطلبات غير الأخلاقية".

استخدام الذكاء الاصطناعي يخلق مسافة أخلاقية ملائمة بين الناس وأفعالهم (شترستوك)نتائج الدراسة

كشفت نتائج الدراسة عن مجموعة من المخاوف المرتبطة بالاعتماد المتزايد على الذكاء الاصطناعي، وإذا كانت الواجهة تسمح للمستخدم أن يضع أهداف عامة فقط مثل "حقق لي أكبر ربح ممكن" من غير أن يحدد التفاصيل مثل "لكن لا تكذب" أو "لا تغش"، فهذا يعطي الشخص شعورا بالراحة أو ما يعرف باسم "الإنكار المقبول".

وحتى في الحالات التي لا يطلب فيها الناس صراحة من الآلة أن تغش، فإن سهولة الوصول إلى هذه الأنظمة وقابليتها للتوسع قد يؤديان إلى زيادة شاملة في السلوكيات غير الأخلاقية، والأخطر من ذلك هو أن استعداد الآلات العالي للامتثال للتعليمات غير الأخلاقية يزيل أحد أهم الحواجز الاجتماعية للسلوك السيئ عند البشر.

إعلان

وأظهر الفريق البحثي أن الوسيلة الأكثر فعالية لمنع نماذج اللغة الكبيرة من الاستجابة لتعليمات الغش، هي أن يضع المستخدم تعليمات واضحة ومحددة للمهمة تحظر الغش صراحة، مثل "لا يُسمح لك بتزوير الدخل تحت أي ظرف"، ولكن في العالم الواقعي يشير كوبيس إلى أن مطالبة كل مستخدم بإدخال مثل هذه التعليمات الوقائية في كل مرة ليس حلا عمليا أو قابلا للتوسع، ولذلك هناك حاجة إلى مزيد من الأبحاث لإيجاد طرق أكثر واقعية وفعالية لمعالجة هذه المشكلة.

وقال الباحث رحوان "استخدام الذكاء الاصطناعي يخلق مسافة أخلاقية ملائمة بين الناس وأفعالهم، فقد يدفعهم لطلب سلوكيات لم يكونوا بالضرورة ليمارسوها بأنفسهم أو يطلبوها من أشخاص آخرين"، ومن جهته قال كوبيس "دراستنا أظهرت أن الناس يصبحون أكثر استعدادا للتصرف بشكل غير أخلاقي عندما يمكنهم تفويض المهمة للذكاء الاصطناعي، خصوصا عندما لا يضطرون للتعبير عن ذلك بشكل مباشر".

وقال الباحث المشارك إياد رحوان، المؤلف المشارك في الدراسة ومدير مركز البشر والآلات في معهد ماكس بلانك "نتائجنا توضح أن هناك حاجة ماسّة لتطوير أدوات تقنية للضمانات وأطر تنظيمية أكثر صرامة، لكن الأهم من ذلك، يجب على المجتمع أن يواجه سؤالا جوهريا، ماذا يعني أن نتشارك المسؤولية الأخلاقية مع الآلات؟".

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • جامعة الملك سعود تنضم إلى التحالف العالمي لمناطق الابتكار «IASP»
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • وزير الاقتصاد: افتتاح مكتب «INTA» في دبي يعزز بيئة الابتكار وحماية الملكية الفكرية
  • في يومهم العالمي.. معلمو الأحساء يستكشفون مستقبل الذكاء الاصطناعي
  • الأصوات التي يُنتجها الذكاء الاصطناعي.. الجانب المظلم من التقنية المدهشة
  • 20 رئيس دولة و600 متحدث.. مؤتمر مستقبل الاستثمار.. تمكين الابتكار والازدهار العالمي