أعلنت “إي آند”، اليوم عن تعاونها مع شركة IBM لإطلاق منصة شاملة تتضمن نماذج متعددة للذكاء الاصطناعي وحلول حوكمة الذكاء الاصطناعي التوليدي.

ويهدف هذا التعاون الإستراتيجي، الذي أُعلن عنه في المنتدى الاقتصادي العالمي 2025 في دافوس، إلى تعزيز إطار حوكمة الذكاء الاصطناعي لدى “إي آند” لتعزيز الامتثال والرقابة والممارسات الأخلاقية عبر منظومتها المتكاملة والمتنامية، ما يعزز التزام المجموعة بإرساء حوكمة قوية وإدارة المخاطر والرقابة التنظيمية على تطبيقات الذكاء الاصطناعي.

ويرتكز هذا الحل على منصة watsonx.governance للذكاء الاصطناعي وحوكمة البيانات المؤسسية، وعلى خبرات فريق الخدمات الاستشارية لدى شركة IBM، إلى جانب التزام “إي آند” بتوسيع نطاق التبني المسؤول للذكاء الاصطناعي، وضمان الامتثال القوي والشفافية والرقابة الأخلاقية على نماذج الذكاء الاصطناعي.

وسيساهم هذا التعاون في وضع معيار عالمي معترف به لحوكمة الذكاء الاصطناعي، ومعالجة التحديات الرئيسية مثل الحفاظ على الرقابة المستمرة على الأنظمة الخاصة بمجموعة “إي آند”، والتعامل مع مخاطر عدم الامتثال، والعوامل الأخلاقية ومراقبة أداء الذكاء الاصطناعي.

وتقدم المنصة خصائص متقدمة مثل إدارة المخاطر آليًاً ومراقبة الامتثال وتحليل الأداء في الوقت الفعلي، والتي ستمكن “إي آند” من تخفيف المخاطر واكتشاف التحيزات وتلبية المعايير التنظيمية طوال دورة حياة نموذج الذكاء الاصطناعي بالكامل، بدءاً من التطوير وحتى إيقاف التشغيل.

وستتمكن مجموعة “إي آند” من مراقبة حالات استخدام الذكاء الاصطناعي الحالية في الوقت الفعلي، وإدارة أي مخاطر محتملة في الإنتاج بشكل استباقي، وتقديم قيمة قابلة للقياس لأصحاب المصلحة من خلال هذه المنصة.

وتتضمن المنصة إمكانية التتبع والرقابة الشاملة، وذلك من خلال إنشاء مخزون مركزي لنماذج الذكاء الاصطناعي بينما تعمل تقنية watsonx.governance من IBM على تسهيل المتابعة بالوقت الفعلي، وتقديم الرؤى في الوقت الفعلي حول أداء النموذج وتسجيل المخاطر وتقديم مقاييس للامتثال، وهو ما يمكّن “إي آند” من اكتشاف مشكلات مثل التحيز والأخطاء في وقت مبكر، ويسمح باتخاذ إجراءات تصحيحية وممارسات أخلاقية للذكاء الاصطناعي.


المصدر: جريدة الوطن

كلمات دلالية: حوکمة الذکاء الاصطناعی للذکاء الاصطناعی إی آند

إقرأ أيضاً:

ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر

في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.

واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.

دعما لمبيعات أجهزتها.. ميتا تتوسع بمتاجر جديدةميتا تهدد بإغلاق فيسبوك وإنستجرام في أكبر دولة إفريقيةميتا تستبدل البشر بالذكاء الاصطناعي لتقييم الخصوصية والمخاطر
 

يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.

في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.

وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".

وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".

لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.

مخاوف من غياب الخبرة

تشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.

في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.

وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".

وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".

تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.

تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.

ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.

طباعة شارك ميتا مراجعات الخصوصية فيسبوك الذكاء الاصطناعي تطبيقات ميتا

مقالات مشابهة

  • “هيوماين” ومستقبل الذكاء الاصطناعي
  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • الإمارات تطلق البرنامج التدريبي للرؤساء التنفيذيين للذكاء الاصطناعي
  • “غوغل” تقدم أداة لتحرير الصور بتقنيات الذكاء الاصطناعي
  • “سيماكان” يتجه لمقاضاة مفبركي حواره المزيف
  • DeepSeek تطلق تحديثا جديدا لنموذج الذكاء الاصطناعي R1-0528
  • “تواصل” يناقش مستقبل الذكاء الاصطناعي في الأردن
  • انطلاق فعاليات منتدى “تواصل 2025” اليوم
  • ديب سيك للذكاء الاصطناعي تحدّث نموذجها للتفكير المنطقي
  • اتحاد الفلاحين يبحث مع شركة “ما وراء البحار” سبل التعاون لإطلاق مشروع استثماري في دير الزور