أعلنت الصين، اعتزامها تسريع جهودها لإنتاج مجموعة متطورة من روبوتات الاستجابة للطوارئ بحلول عام 2025؛ لأغراض متعددة بما في ذلك البحث والإنقاذ في حالات الطوارئ.

وأوضحت وزارتا إدارة الطوارئ والصناعة وتكنولوجيا المعلومات بالصين - حسبما ذكرت وكالة الأنباء الصينية (شينخوا) - أن تطوير تقنيات روبوتات الاستجابة للطوارئ وتطبيقاتها العملية؛ سيعزز تحديث أنظمة وقدرات إدارة الطوارئ في الصين.

 

وأشارت الوزارتان إلى أن روبوتات الاستجابة للطوارئ هي روبوتات ذكية تؤدي مهام، مثل المراقبة والإنذار المبكر والبحث والإنقاذ والاتصالات والدعم اللوجستي وغيرها من العمليات خلال أعمال الوقاية من الكوارث والحد منها والإغاثة، ويمكن أن تحل جزئيا أو كليا محل العنصر البشري.

ويتمثل الهدف الرئيسي في تطوير مجموعة متقدمة من روبوتات الاستجابة للطوارئ تكون أكثر احترافية ودقة وذكاء بحلول عام 2025، كما سيتم تعزيز الجهود لتطوير روبوتات الاستجابة للطوارئ للأغراض الرئيسية، مثل الاستطلاع والبحث عن الناجين وتسليم المواد وإطفاء الحرائق والعمليات عالية الخطورة والإنقاذ في بيئات معقدة وفتح قنوات الإنقاذ ودعم الاتصالات، في حالات الاستجابة للفيضانات والحرائق والزلازل والكوارث الجيولوجية وغيرها، وفقًا للمبادئ التوجيهية.

المصدر: البوابة نيوز

كلمات دلالية: الصين روبوتات

إقرأ أيضاً:

ذكاء اصطناعي بلا تركيز.. روبوتات المحادثة تفتقد الدقة عند الإيجاز

كشفت دراسة جديدة أجرتها شركة Giskard الفرنسية، المتخصصة في اختبار أنظمة الذكاء الاصطناعي، أن طلب إجابات قصيرة من روبوتات المحادثة مثل ChatGPT قد يؤدي إلى زيادة احتمالات الهلوسة أي تقديم معلومات غير صحيحة أو مختلقة.

وذكرت الشركة في منشور عبر مدونتها، أن الإيجاز في الإجابة، خاصة عند التعامل مع مواضيع غامضة أو أسئلة مبنية على افتراضات خاطئة، قد يقلل من دقة النموذج، وفقا لـ"techcrunch".

ذكية وشيك.. شاومي تطلق غسالة جديدة مدعومة بالذكاء الاصطناعيشاومي تغزو عالم الذكاء الاصطناعي بنموذج لغوي جديدطلب الاجابات القصيرة يزيد من “هلوسة” روبوتات الدردشة 

أكد الباحثون أن تغييرا بسيطا في تعليمات النظام، مثل “كن موجزا”، قد يكون له تأثير كبير على ميل النموذج لتوليد معلومات غير دقيقة.

وقالت الدراسة: "تشير بياناتنا إلى أن التعليمات المباشرة للنظام تؤثر بشكل كبير على ميل النموذج للهلوسة، هذا الاكتشاف له تبعات مهمة عند نشر النماذج في التطبيقات الفعلية، حيث يفضل الإيجاز غالبا لتقليل استهلاك البيانات، وتحسين سرعة الاستجابة، وخفض التكاليف".

تكمن المشكلة بحسب Giskard، في أن النماذج تحتاج إلى "مساحة نصية" كافية لتفنيد الافتراضات الخاطئة أو التوضيح عند وجود معلومات مضللة، وهو ما لا يتوفر عند إجبارها على تقديم إجابات قصيرة، وبالتالي، تميل النماذج إلى اختيار الإيجاز على حساب الدقة.

وتطرقت الدراسة أيضا إلى أن النماذج تكون أقل ميلا لتفنيد الادعاءات المثيرة للجدل عندما تطرح بثقة من قبل المستخدم، كما أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر صدقا. 

وأشار الباحثون إلى وجود تناقض متزايد بين تحسين تجربة المستخدم والحفاظ على الدقة المعلوماتية، خصوصا عندما تتضمن استفسارات المستخدمين مغالطات أو معلومات خاطئة.

وتشمل النماذج المتأثرة بهذه الظاهرة: GPT-4o من OpenAI المستخدم حاليا في ChatGPT، إلى جانب نماذج أخرى مثل Mistral Large وClaude 3.7 Sonnet من شركة Anthropic، والتي أظهرت جميعها انخفاضا في الموثوقية عند مطالبتها بإجابات موجزة.

طباعة شارك الذكاء الاصطناعي ChatGPT هلوسة معلومات مضللة

مقالات مشابهة

  • معاون وزير الطوارئ والكوارث لـ سانا: تقسيم المنطقة المندلعة فيها النيران ‏باللاذقية إلى قطاعات وعزلها ‏
  • الجيش الروسي يتسلّم روبوتات عسكرية جديدة متعددة الاستخدامات
  • لائحة تنظم الاستجابة للطوارئ البيئية في أبوظبي
  • أميركا وسويسرا تتفقان على تسريع محادثاتها التجارية
  • الخطوط البريطانية تعتزم تعزيز أسطولها بـ 30 طائرة بوينغ
  • بيئة أبوظبي.. تُصدر لائحة جديدة لتنظيم الاستعداد والاستجابة للطوارئ البيئية
  • 784 من أصل 831.. المنيا تنجز 94% من شكاوى المواطنين في أبريل 2025
  • محافظ المنيا: نسب إنجاز متميزة في التعامل مع شكاوى المواطنين خلال أبريل 2025
  • «بيئة أبوظبي» تُصدر لائحة جديدة لتنظيم الاستعداد والاستجابة للطوارئ البيئية
  • ذكاء اصطناعي بلا تركيز.. روبوتات المحادثة تفتقد الدقة عند الإيجاز