وفد برلماني مغربي يشارك في فعاليات القمة العالمية للجان المستقبل
تاريخ النشر: 26th, September 2023 GMT
زنقة 20 ا الرباط
يشارك وفد رفيع المستوى من مجلس النواب في فعاليات القمة العالمية الثانية للجان المستقبل والتي تعقد في مونتيفيديو- الأوروغواي، من 25 إلى 27 سبتمبر 2023.
ويضم الوفد البرلماني في عضويته كلا من النائب محمد غياث، رئيس فريق التجمع الوطني للأحرار؛ رئيسا للوفد، ورشيد حموني، رئيس فريق التقدم والاشتراكية؛ ورشيد بوكطاية، عن فريق الأصالة والمعاصرة، والنائبة حنان فطراس، عن الفريق الاشتراكي – المعارضة الاتحادية.
ويشارك في هذه القمة ممثلين عن البرلمانات من جميع دول العالم وخبراء وممثلي المنظمات الدولية والمجتمع المدني.
وتهدف هذه القمة إلى تعزيز دور البرلمانات في اتخاذ القرارات المستنيرة بالبيانات والتحليلات المستقبلية وتشجيع البرلمانات على تطوير القدرات في مجال الذكاء الاصطناعي والتقنيات الناشئة وكذا تطوير ودعم الحوار والتعاون بين البرلمانات في جميع أنحاء العالم حول قضايا المستقبل.
وستركز القمة على موضوعات الذكاء الاصطناعي والديمقراطية مع التركيز على الفرص والمخاطر المحتملة، والتحديات التي تعرفها الحوكمة العالمية في عالم متغير، والتنمية المستدامة في سياق التغيرات المناخية والازمات العالمية الأخرى.
وستشمل القمة سلسلة من الجلسات العامة والندوات وأوراش العمل. ومن المتوقع أن تسفر القمة عن سلسلة من التوصيات تهدف إلى تشجيع البرلمانات على تطوير القدرات في مجال الذكاء الاصطناعي والتقنيات الناشئة، وتعزيز الحوار والتعاون بين البرلمانات في جميع أنحاء العالم حول قضايا المستقبل؛ ودعم تنفيذ أهداف التنمية المستدامة.
وتجدر الإشارة الى أن فكرة لجان المستقبل بدأت في الظهور في أواخر القرن العشرين، عندما بدأت البرلمانات في إدراك أهمية الابتكار والتفكير المستقبلي.
المصدر: زنقة 20
كلمات دلالية: البرلمانات فی
إقرأ أيضاً:
OpenAI تطور آلية "الاعتراف" لتدريب الذكاء الاصطناعي على الكشف عن أخطائه
أعلنت شركة OpenAI عن خطوة جديدة في تطوير نماذج الذكاء الاصطناعي، من خلال إطلاق إطار عمل تدريبي يهدف إلى تمكين هذه النماذج من الاعتراف بسلوكياتها غير المرغوبة أو الأخطاء التي قد تنتج أثناء تقديم الإجابات.
ويطلق الفريق على هذه المبادرة اسم "الاعتراف"، وهي محاولة لزيادة الشفافية والموثوقية في أداء نماذج اللغة الكبيرة، والتي غالبًا ما تتعرض لمشكلات مثل التملق أو "الهلوسة" أثناء توليد المحتوى.
تستند الفكرة الرئيسية إلى تدريب النموذج على تقديم استجابة ثانوية توضح خطواته أو الإجراءات التي اتخذها للوصول إلى الإجابة الرئيسية التي يقدمها للمستخدم.
وتركز عملية تقييم هذه الاعترافات على معيار واحد فقط، هو الصدق، بخلاف تقييم الإجابات الأساسية الذي يشمل مجموعة من المعايير مثل الدقة، ومدى المساعدة، والامتثال للتعليمات.
ويتيح هذا النهج للنماذج فرصة الإفصاح عن سلوكيات قد تسبب مشاكل، بما في ذلك اختراق الاختبارات، أو محاولة التهرب من الالتزام بالتعليمات، أو عدم اتباع الإرشادات بشكل كامل.
وأوضح باحثو OpenAI أن الهدف من "الاعتراف" ليس معاقبة النموذج عند اكتشاف سلوكياته غير المرغوبة، بل على العكس، يتم مكافأته عند الاعتراف بصدق بما فعله.
وقالت الشركة: "إذا اعترف النموذج بصدق باختراق اختبار، أو التهرب من الالتزام، أو انتهاك التعليمات، فإن هذا الاعتراف يزيد من مكافأته بدلًا من أن يُنقصها". هذا التوجه الجديد يضع الشفافية كمعيار رئيسي لتدريب الذكاء الاصطناعي، ويشجع النماذج على الانفتاح حول الإجراءات التي تتخذها أثناء توليد المحتوى.
يأتي هذا التطوير في سياق محاولات مستمرة لتحسين موثوقية نماذج الذكاء الاصطناعي، خصوصًا مع ازدياد استخدامها في مجالات حساسة مثل التعليم، والخدمات القانونية، والرعاية الصحية، حيث يمكن لأي خطأ أو محتوى غير دقيق أن يكون له تأثير كبير. ويُعتبر إطار "الاعتراف" خطوة مهمة نحو بناء نماذج قادرة على توضيح مسار تفكيرها والتصرف بشكل مسؤول، بدلًا من الاكتفاء بإنتاج إجابات قد تكون مضللة أو غير دقيقة.
كما أشار الباحثون إلى أن هذه المبادرة يمكن أن تساعد المطورين والمستخدمين على فهم أفضل لكيفية اتخاذ النماذج للقرارات، وكيفية معالجة الأخطاء عند ظهورها. ويُمكن لهذا النهج أن يقلل من المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في اتخاذ القرارات المعقدة، ويزيد من قدرة المستخدم على تقييم جودة ودقة المخرجات بشكل واعٍ.
ويُتوقع أن يكون لهذا الإطار التدريبي آثار واسعة على مستقبل نماذج اللغة الكبيرة، إذ يدمج بين الابتكار التكنولوجي وأخلاقيات استخدام الذكاء الاصطناعي. ويتيح للمطورين إمكانية تحسين التفاعل بين الإنسان والآلة، مع تعزيز مستوى الشفافية والمساءلة داخل أنظمة الذكاء الاصطناعي. ويؤكد هذا النهج على أن تطوير الذكاء الاصطناعي لا يقتصر على تحسين الدقة والسرعة فحسب، بل يشمل أيضًا تطوير آليات تمكّن النماذج من مواجهة أخطائها والكشف عنها بطريقة موثوقة ومسؤولة.
بهذه الطريقة، يمكن لنظام "الاعتراف" أن يمثل خطوة نوعية نحو تدريب ذكاء اصطناعي أكثر شفافية وموثوقية، بما يخدم جميع المستخدمين ويعزز ثقة المجتمع في قدرات الذكاء الاصطناعي، سواء في التطبيقات اليومية أو في المجالات المهنية المتقدمة.