أعلنت مجموعة "جي 42"، مجموعة التكنولوجيا القابضة، عن إطلاق إطار عملها للسلامة في مجال الذكاء الاصطناعي الحدودي "Frontier AI"، الذي يضع آليات واضحة لتقييم المخاطر، وتعزيز الحوكمة، وتوفير الإشراف الخارجي، بما يضمن تطوير نماذج الذكاء الاصطناعي المتقدّمة بطريقة آمنة ومسؤولة.

ويقدّم إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي نهجاً متعدد الطبقات لإدارة مخاطره، مما يضمن تطوير أنظمة الذكاء الاصطناعي المتقدّمة واختبارها ونشرها بشكل مسؤول، إذ أنشأت في هذا الإطار مجلس إدارة لحوكمة الذكاء الاصطناعي الحدودي للإشراف على الامتثال وتقييم المخاطر وضمانات نماذج الذكاء الاصطناعي ويضم مجلس الإدارة كلاً من الدكتور أندرو جاكسون، كبير مسؤولي الذكاء الاصطناعي، وألكسندر ترافتون، رئيس مخاطر التكنولوجيا، ومارتن إيدلمان، المستشار العام، وأديل أوهيرليهي، رئيس الذكاء الاصطناعي المسؤول.


ويشمل الإطار عمليات التدقيق المستقلة وتدابير الشفافية، إذ ستجري "جي 42" عمليات تدقيق داخلية منتظمة للحوكمة، إضافةً إلى المشاركة في مراجعات خارجية سنوية لضمان الامتثال لأفضل معايير السلامة، كما ستصدر الشركة تقرير شفافية يسلّط الضوء على رؤى السلامة الرئيسية وتقييمات المخاطر.
كما يشمل تحديد عتبات المخاطر واستراتيجيات التخفيف، والتي تتيح تقييم المخاطر المرتبطة بالتهديدات البيولوجية، وثغرات الأمن السيبراني، ومخاطر اتخاذ القرار الذاتي.
وحظي تطوير إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي بدعم نخبة من خبراء مخاطر الذكاء الاصطناعي، بما في ذلك METR وSaferAI، حيث ساهمت رؤاهم في صياغة استراتيجيات الحوكمة والتخفيف من المخاطر الواردة في الإطار، مما يعزز التزام "جي 42" بتطوير ذكاء اصطناعي آمن ومسؤول.
ولتطبيق إطار عمل السلامة في مجال الذكاء الاصطناعي الحدودي، أطلقت "جي 42"منصة التقييم "X-Risks "Leaderboard، المختصة بقياس مخاطر نماذج الذكاء الاصطناعي في مجالات الأمن السيبراني والكيمياء والأحياء، وقد تم تطويرها من مجموعة تقييم السلامة الخاصة بشركة "إنسيبشن"، لتوفير تقييم عملي لنقاط الضعف المحتملة في الذكاء الاصطناعي، مما يعكس التزام "جي 42" بتعزيز سلامة الذكاء الاصطناعي، من خلال مناقشة السياسيات، ووضع ضمانات شفافة وقابلة للقياس. وتعد "جي 42" من أولى الشركات في الشرق الأوسط التي قدّمت إطار عمل شامل لسلامة الذكاء الاصطناعي، وتواصل الشركة التعاون مع الجهات التنظيمية وصناع السياسات وشركاء القطاع لتعزيز ممارسات السلامة، والمساهمة بفاعلية في مناقشات الحوكمة العالمية لضمان تطوير واستخدام مسؤول لهذه التكنولوجيا.

المصدر: موقع 24

كلمات دلالية: عام المجتمع اتفاق غزة سقوط الأسد إيران وإسرائيل غزة وإسرائيل الإمارات الحرب الأوكرانية الإمارات

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • استمراراً لسلسلة الدورات المتخصصة في الذكاء الاصطناعي… التنمية الإدارية تواصل تطوير الكوادر الحكومية في تحليل البيانات
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • «إي آند» تطلق برنامج خريجي الذكاء الاصطناعي لعام 2025
  • بطول 850 مترًا.. بدء تطوير شارع أبو معن لتحسينه وربطه بطريق أبو حدرية