جريدة الوطن:
2025-06-02@13:22:33 GMT

النموذج المتفرد في الذكاء الاصطناعي

تاريخ النشر: 4th, June 2024 GMT

النموذج المتفرد في الذكاء الاصطناعي

اتجاهات مستقبلية

 

النموذج المتفرد في الذكاء الاصطناعي

 

 

 

مركز تريندز للبحوث والاستشارات

 

تتفرد الإمارات في مقدمة الدول العربية في الاهتمام والمساهمة في تطوير الذكاء الاصطناعي، ما جعل دولًا أخرى في المنطقة تتسابق للحاق بركب التكنولوجيا المتقدمة، ويتوقع أن يسهم الذكاء الاصطناعي بنسبة 14% من الناتج المحلي الإجمالي للإمارات في 2030، إذ ترمي الإمارات إلى الاعتماد على الذكاء الاصطناعي لتحقيق ريادتها في تقدم نموذج يعزز التنمية المستدامة.

وبينما يتقدم الذكاء الاصطناعي سريعًا، يبدو أننا نحتاج إلى معايير لتطوير الذكاء الاصطناعي التوليدي بما لا يضر، ومن أجل ذلك، أطلقت “مجموعة السبع” خلال قمة هيروشيما في اليابان “عملية هيروشيما للذكاء الاصطناعي”، للعمل من أجل ذكاء اصطناعي “آمن وتحييد المخاطر المحتملة الناتجة عن التطوير.

الإمارات، الدولة الوحيدة العربية وفي منطقة الشرق الأوسط، التي انضمت إلى مجموعة “هيروشيما للذكاء الاصطناعي”، بجانب الولايات المتحدة وبريطانيا واليابان وكندا وكوريا الجنوبية والاتحاد الأوروبي، ليصبح العدد 49 دولة تمتاز بالتقدم على الساحة العالمية في هذا المجال، إذ إنها تحدد المخاطر المرتبطة بالذكاء الاصطناعي، وتضع القواعد وتطورها لتفادي العالم أزمات يمكن تجنبها ويمكن التقاعس عنها لتنفجر في وجوه الجميع ويحصل ما لم يحمد عقباه.

وبالنظر إلى مخاطر الذكاء الاصطناعي فإنها عديدة؛ من التضليل المعلوماتي، وخرق حقوق الملكية الفكرية والبيانات الشخصية، والاختراقات السيبرانية، إلى المخاطر الأمنية والعسكرية، خاصة إذا استغلت من فاعلين غير الدول أو ميليشيات إرهابية في تطوير واستخدام أسلحة مدمرة، وبالرغم من ذلك قد يكون احترام مبادئ وقواعد “هيروشيما” ليس إلزاميًا للجميع، لكنه يمكن أن يكون محفزًا للدول والشركات في الحد من المخاطر والاستفادة من القدرات الهائلة والمتطورة للذكاء الاصطناعي.

لا ينبغي رؤية الذكاء الاصطناعي بعيدًا عن أي مجال حياتي في الوقت الحالي والمستقبلي، إذ إنه قادر على المعاونة في تقديم التحليلات والتنبؤات، مما يعطي الإنسان المساحة للتخطيط الاستباقي، وفهم اتجاهات السوق وسلوك المستهلك والمؤشرات الاقتصادية، ولإدراك دولة الإمارات بأهمية الذكاء الاصطناعي، عقدت شراكات دولية مع شركات التكنولوجية العالمية لخلق بيئةٍ مواتية لتبني الذكاء الاصطناعي التوليدي وتقليل المخاطر، وبالفعل يُدمج الذكاء الاصطناعي في الإمارات في قطاعات متعددة، خاصةً الصحة والتعليم وخدمات الحكومة.

إن قدرات الذكاء الاصطناعي للاقتصاد هائلة اعتمادًا على تحليل البيانات، خاصة في زيادة الإنتاجية وتحسين كفاءة العمليات وتحسين اتّخاذ القرارات، ولذا تراهن الإمارات على الذكاء الاصطناعي وتسعى إلى الاستفادة من هذه التكنولوجيا لتحقيق أهدافها التنموية، بعقد شراكات مع جامعة “أكسفورد” بهدف تدريب المسؤولين الحكوميين على التعامل مع التكنولوجيا المُستقبلية، وكذلك تأسيس شركة “إم جي إكس” التكنولوجية الجديدة، للاستثمار في البنية التحتية للذكاء الاصطناعي وأشباه الموصلات وتطبيقات الذكاء الاصطناعي، وشراكة “G42″القابضة الإماراتية مع شركة “مايكروسوفت”، لاستثمار استراتيجي بقيمة 1.5 مليار دولار، لإدخال أحدث تقنيات مايكروسوفت الخاصة بالذكاء الاصطناعي إلى دولة الإمارات ودول العالم.

وبفضل الاستثمار في تكنولوجيا الذكاء الاصطناعي، تنتقل الإمارات من دولة مستوردة للذكاء الاصطناعي إلى دولة منتجة، لكن أمام الدولة والعالم تحديات تتعلق بالجانب الأخلاقي في استخدامات الذكاء الاصطناعي، مما يتطلب وضع إطار أخلاقي واضح لتنظيم استخدام هذه التكنولوجيا، وهو ما تعمل عليه “عملية هيروشيما”، وإن كانت مبادئ إرشادية عامة، فهي مقدمة تحتاج إلى عمل أكبر بشراكة الإمارات لضمان تطور المعايير التحقق من الالتزام بها حول العالم.

إن اختيار الإمارات للانضمام إلى “عملية هيروشيما للذكاء الاصطناعي” يعد تقديرًا إيجابيًا لاستثمار الإمارات في التكنولوجيا المتقدمة، في إطار التنوع الاقتصادي، والمكانة الإقليمية والدولية في مجال الذكاء الاصطناعي، بفضل القيادة الرشيدة، الساعية إلى تحقيق أهداف مئوية الإمارات 2071، بالاعتماد على الذكاء الاصطناعي في مختلف المجالات واستثمار الذكاء الاصطناعي بالقطاعات الحيوية، لتعظيم اقتصاد البلاد والتنمية المستدامة ومواكبة التقدم العالمي ليس كمستهلك فقط، بل كشريك في الإنتاج.


المصدر: جريدة الوطن

كلمات دلالية: للذکاء الاصطناعی الذکاء الاصطناعی

إقرأ أيضاً:

ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر

في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.

واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.

دعما لمبيعات أجهزتها.. ميتا تتوسع بمتاجر جديدةميتا تهدد بإغلاق فيسبوك وإنستجرام في أكبر دولة إفريقيةميتا تستبدل البشر بالذكاء الاصطناعي لتقييم الخصوصية والمخاطر
 

يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.

في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.

وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".

وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".

لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.

مخاوف من غياب الخبرة

تشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.

في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.

وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".

وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".

تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.

تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.

ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.

طباعة شارك ميتا مراجعات الخصوصية فيسبوك الذكاء الاصطناعي تطبيقات ميتا

مقالات مشابهة

  • الإمارات تعرض مبادرة مبتكرة في الذكاء الاصطناعي خلال كوسباس - سارسات
  • الذكاء الاصطناعي يحاكي تعقيدات العقل البشري.. GPT-4o يعكس تناقضات نفسية
  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • الإمارات تطلق البرنامج التدريبي للرؤساء التنفيذيين للذكاء الاصطناعي
  • DeepSeek تطلق تحديثا جديدا لنموذج الذكاء الاصطناعي R1-0528
  • الذكاء الاصطناعي يعزز دقة التنبؤ بهياكل الأجسام المضادة
  • «أدنوك» تساهم في تطوير مهارات طلاب الإمارات بمجال الذكاء الاصطناعي
  • أخبار التكنولوجيا|غرامة ضخمة تهدد سامسونج بسبب براءات الاختراع.. هونر تطوير روبوت على شكل إنسان كجزء من جهودها في مجال الذكاء الاصطناعي
  • الذكاء الاصطناعي يحسّن إدارة سكر الدم بعد جراحة القلب
  • ديب سيك للذكاء الاصطناعي تحدّث نموذجها للتفكير المنطقي