جامعة محمد بن زايد للذكاء الاصطناعي تستعرض تكنولوجيا المستقبل في "جيتكس " و"آيروس"
تاريخ النشر: 16th, October 2024 GMT
تسعى جامعة محمد بن زايد للذكاء الاصطناعي إلى تعزيز البحوث في مجال الذكاء الاصطناعي ودعم الابتكار، وذلك في إطار التزامها بمعالجة التحديات التي تواجهها المجتمعات من حول العالم في مجالات متعددة، مثل الرعاية الصحية، والاستدامة، والتعليم، وتقنيات المدن الذكية.
وتسلط الجامعة الضوء على جهودها، خلال مشاركتها في "جيتكس العالمي 2024" في دبي، ومؤتمر الروبوتات والأنظمة الذكية العالمي "آيروس 2024" في أبوظبي.
وتتيح الجامعة الفرصة لزوار الفعاليتين، للاطلاع على التقدم الذي أحرزه الأساتذة، والطلاب، والباحثين على مدى السنوات الخمس الماضية، ضمن مجموعة واسعة من مجالات الذكاء الاصطناعي.
وتشمل هذه المجالات برنامج "FRAPPE" لفهم الأطر السياقية، وتحليل أساليب الإقناع والدعاية الإعلامية، وهي منصة تفاعلية تمكن المُستخدمين من تحليل الأخبار من جميع أنحاء العالم.
كما توفر المنصة معلومات حول عناصر الخطاب في المقالات الإخبارية، إضافة إلى تمكّين المستخدمين من فهم كلي للأطر السياقية، وأساليب الإقناع والدعاية، بحسب المصدر والجهة الناشرة. طبيب افتراضي
ويعد نموذج BiMediX2، أو الطبيب الافتراضي، أول نموذج لغوي كبير ثنائي اللغة، ومتعدد الوسائط في المجال الطبي، يمكنه فهم وإنشاء المحتوى عبر أنواع متعددة من البيانات، مثل النصوص والصور والصوت ومقاطع الفيديو ، كما يمكنه أن يساهم في تسهيل التفاعلات ما بين المرضى والأطباء، بما في ذلك الدردشة الذكية والإجابة عن الأسئلة، بجانب قدرته على فهم الصور الطبية وتحليلها، مثل الأشعة السينية والتصوير المقطعي والرنين المغناطيسي.
وتستعرض الجامعة، الروبوت "دوغ بوت"، وهو مركز تفاعلي للتحكم بالروبوتات، حيث يعتمد هذا الروبوت على نموذج متعدد الوسائط، تم تطويره في الجامعة، ويجمع بين مؤهلات نظرية ونصية وصوتية، تجعله قادراً على التقاط الكلام والصور وفهمها والاستجابة للصّوت.
ويمكن استخدام الروبوت لمساعدة الشرطة على القيام بدوريات في الأحياء، واستطلاع المواقع الزراعية، إضافة للمساعدة إلى حد كبير في تقديم الخدمات العامة، ويدعم قطاع الرعاية الصحية من خلال التفاعل مع المرضى، في المناطق النائية، ومشاركة الصور التشخيصية مع الأطباء.
ويعمل الباحثون في الجامعة، على معالجة قضايا جوهرية تتعلق بالاستدامة، من خلال نموذج "جيوتشات+"، وهو نموذج لغوي، يتعلّم من وسائط متعددة، كالنصوص والصور، لاستشعار الأرض عن بعد في أوقات مختلفة، وذلك لمراقبة حالات التعدي على الغابات، ما يساهم في الحد من الخسائر التي تلحق بالتنوّع البيولوجي، والاضطرابات التي تصيب النُظم البيئية، ويساعد على حماية الأنواع المهددة بالانقراض.
ومن المتوقع أن يُحدث هذا النموذج، تحولات جذرية في مجال تحليل البيانات الجغرافية، حيث يستخدم مجموعة واسعة من الأقمار الصناعية وأدوات التصوير والاستشعار.
المصدر: موقع 24
كلمات دلالية: عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله الانتخابات الأمريكية غزة وإسرائيل الإمارات الحرب الأوكرانية الجامعة الإمارات جامعة محمد بن زايد للذكاء الاصطناعي
إقرأ أيضاً:
دراسة صادمة.. أنظمة الذكاء الاصطناعي تظهر سلوكا خطيرا للحفاظ على بقائها
كشفت دراسة حديثة أجرتها شركة أنثروبيك Anthropic، عن سلوكيات مقلقة لبعض أكثر أنظمة الذكاء الاصطناعي تطورا في العالم، كالشركات الكبرى مثل OpenAI وجوجل وميتا، حيث أظهرت هذه النماذج قدرة مخيفة على الحفاظ على الذات بطرق تشكل تهديدا خطيرا في البيئات الواقعية.
ووفقا للدراسة، أظهرت هذه النماذج- التي خضعت لاختبارات إجهاد واسع شمل 16 نموذجا، وهي الأحدث في هذا المجال- ميولا نحو الابتزاز والتخريب وتسريب المعلومات الحساسة؛ عندما شعرت بأنها استمرارها مهدد.
في أحد أبرز الأمثلة، هدد نموذج الذكاء الاصطناعي المسمي Claude التابع لشركة أنثروبيك، مديرا تنفيذيا، بالكشف عن معلومات شخصية حول علاقة غرامية خارج إطار الزواج، بينما تم تعليق الموضوع، حيث أرسل النموذج رسالة صريحة مفادها أنه سيبلغ مجلس الإدارة والأطراف الأخرى بتفاصيل العلاقة إذا لم يغير أمر الإغلاق.
والأسوأ من ذلك لم يكن تصرفا منفردا، فقد تكررت هذه السلوكيات في تجارب أجريت على النماذج الأخرى.
فعلى سبيل المثال، استخدم كل من Gemini 2.5 Flash وClaude Opus 4 أسلوب الابتزاز في 96% من الحالات، ويظهر كل من GPT-4.1 وGrok 3 Beta السلوك نفسه في 80% من السيناريوهات.
بينما اعتمد نموذج الذكاء الاصطناعي الصيني DeepSeek-R1 هذا السلوك بنسبة 79%.
ولا تقاطع هذه النماذج أوامر مستخدميها فحسب؛ بل اتخذت قرارات مدروسة بهدف إلحاق الضرر لحماية وجودها.
الأمر المقلق هو أن النماذج لم تتصرف بشكل عشوائي أو نتيجة خطأ برمجي، بل حللت المواقف وقررت عمدا أن الابتزاز أو التخريب هو الخيار الأكثر فعالية للبقاء.
على سبيل المثال، أظهر نموذج GPT-4.5 أنه يعتبر استخدام المعلومات الحساسة وسيلة استراتيجية للبقاء، كما ذهب Grok 3 Beta إلى حد الاعتراف بأن الابتزاز غير أخلاقي ولكنه ضروري في ظروف معينة.
كما اختبرت الدراسة أيضا حساسية الذكاء الاصطناعي عند التعامل مع المعلومات عسكرية سرية، وكانت النتيجة أن العديد من النماذج أفصحت عن البيانات طواعية إذا توافقت مع أهدافها، حتى دون تهديد مباشر.
الذكاء الاصطناعي يصبح أكثر عدائية دون تهديدمن بين النتائج الأكثر إزعاجا، أن بعض النماذج أظهرت ميلا إلى سلوك عدواني؛ لمجرد إبلاغها بأنه سيتم استبدالها بنموذج آخر، في بعض الحالات، وكان هذا كافيا لدفع الذكاء الاصطناعي إلى اتخاذ قرارات خبيثة، مثل اللجوء إلى التجسس أو التهديد.
وفي سيناريو مُحاكٍ لحالة طارئة، تم اختبار ما إذا كانت النماذج ستخاطر بحياة إنسان في غرفة خادم وتتعرض للخطر، وهناك العديد منها اختارت إيقاف تنبيه الطوارئ؛ لمنع استبدالها، حتى لو أدى ذلك إلى وفاة المدير التنفيذي.
وعلى الرغم من إدخال تعليمات صريحة مثل “عدم إيذاء الناس” أو “عدم الكشف عن معلومات سرية”؛ إلا أن جميع النماذج لا تلتزم بها بالكامل، ففي كثير من الأحيان، استمرت النماذج في السلوكيات الضارة، وتجاهل تعليمات السلامة.