"زومبي" فيروس جديد يصيب الغزلان الأمريكية بالجنون
تاريخ النشر: 27th, December 2023 GMT
تم العثور على "فيروس زومبي" لدى الغزلان في الولايات المتحدة، ويحتمل أن يشكل الفيروس الجديد خطورة على البشر.
وقالت صحيفة " ديلي ميل " إن ما يسمى بـ"فيروس الزومبي" ينتشر بين الغزلان التي تعيش في حديقة "يلوستون" الوطنية.
يذكر أنه تم نفوق غزال واحد بالفعل بسبب "فيروس الزومبي". وهو نوع من فيروس جنون البقر.
وأوضحت الصحيفة أن "فيروس الزومبي" معدي، ومن المستحيل علاجه.
ويعترف الخبراء بأن الفيروس يمكن أن يتغلب على حاجز الاختلاط بين الأنواع ويصبح خطرا على الإنسان، لذا ينصحون بعدم تناول لحوم الغزلان المصابة.
وكان المتخصصون في الأمراض المعدية قد قيّموا في وقت سابق خطر فيروس زومبي الحمام على البشر، والذي تم تسجيل تفشيه في بريطانيا في عام 2022.
يذكر أن علماء الأحياء الأمريكيين أعلنوا عن اكتشاف فيروس IAPV الزومبي الذي يصيب النحل. وهذا الفيروس قادر على إصابة الحشرات لدرجة أنها تبدأ في تغيير سلوكها المعتاد.
المصدر: كومسومولسكايا برافدا
المصدر: RT Arabic
كلمات دلالية: فيروسات
إقرأ أيضاً:
عندما يتحدث البشر.. هل يفهم الذكاء الاصطناعي ما بين السطور ؟!
أبوظبي (وكالات)
بالرغم من التقدم الكبير الذي حققته أنظمة الذكاء الاصطناعي في السنوات الأخيرة لدرجة أنها تفوقت على الإنسان في مجالات عديدة مثل الهندسة والطب وعلوم الفضاء بل وألعاب الذكاء مثل الشطرنج وخلافه، كما أنها طرقت أنشطة إبداعية مثل تأليف الشعر ورسم اللوحات الفنية، ورغم القدرات الحوسبية الفائقة ومليارات الدولارات التي أنفقتها شركات التكنولوجيا العالمية، لا تزال أنظمة الذكاء الاصطناعي متأخرة عن البشر في فهم الإشارات الاجتماعية التي تعبر عن المغزى أو الدلالة الحقيقية للتفاعلات الإنسانية، وبمعنى آخر، لا تستطيع هذه الأنظمة الذكية حتى الآن أن تفهم "ما بين السطور" عندما يتحدث البشر مع بعضهم البعض.
اقرأ أيضاً.."أوبن أيه.آي": انتشار الذكاء الاصطناعي ليس بديلاً عن تعلم اللغات
كيف تم اختبار منظومات الذكاء؟
بحسب دراسة أجراها فريق بحثي بجامعة جون هوبكنز الأميركية، طلب الباحثون من ثلاث مجموعات من المتطوعين مشاهدة مقاطع فيديو لا يزيد طول كل منها عن ثلاث ثواني، وتقييم التفاعلات الاجتماعية بين الأشخاص الذين يظهرون في هذه المقاطع. وفي الوقت نفسه، تم تحليل نفس المقاطع بواسطة اكثر من 350 منظومة للذكاء الاصطناعي متخصصة في مجالات تحليل اللغة والفيديو والصور بغرض فهم مدلول الإشارات الاجتماعية التي يقوم بها البشر في تلك المقاطع. وأثبتت التجربة أن المتطوعين أنجزوا المهمة المطلوبة بسهولة ويسر، في حين أن أنظمة الذكاء الاصطناعي لم تنجح في تفسير دلالات أو معاني محادثات البشر في مقاطع الفيديو. ويرى الباحثون المشاركون في الدراسة أن أنظمة الذكاء الاصطناعي مازال أمامها شوط طويل قبل أن تصل إلى فهم الإشارات الاجتماعية للبشر في بيئات التفاعل الحقيقية، وهو ما ينطوي على تداعيات خطيرة بالنسبة لصناعات صاعدة مثل السيارات ذاتية القيادة أو الروبوتات وغيرها من المجالات التي تتطلب تفاعلات مستمرة بين الإنسان ومنظومات الذكاء الاصطناعي.
وتقول الباحثة ليلى إيزيك استاذ مساعد العلوم المعرفية بجامعة جون هوبكنز ورئيس فريق الدراسة إنه "إذا كنت تريد أن يتفاعل نظام الذكاء الاصطناعي مع الانسان، فلا بد أن يفهم ما الذي يقصده الانسان، وكيف تتفاعل مجموعة من البشر سويا"، مضيفة في تصريحات للموقع الإلكتروني "بوبيولار ساينس" المتخصص في الأبحاث العلمية: "هذه الدراسة في حقيقة الأمر تسلط الضوء على سبب إخفاق أنظمة الذكاء الاصطناعي في أداء هذه المهمة". ورغم أن دراسات سابقة أثبتت قدرة أنظمة الذكاء الاصطناعي على وصف مغزى الصور الثابتة بدرجة تكاد تتساوى مع الانسان، فإن الدراسة الجديدة كانت تهدف إلى قياس ما إذا كان نفس الوضع يسري بالنسبة للصور المتحركة أو مقاطع الفيديو. وتوضح إيزيك أنها اختارت مع فريقها البحثي المئات من مقاطع الفيديو من قاعدة بيانات خاصة، ثم قامت بتقصيرها إلى مدة زمنية لا تزيد عن ثلاث ثواني، مع التركيز على المقاطع التي يظهر فيها شخصان يتفاعلان سويا. وعرض الباحثون مقاطع الفيديو على المتطوعين المشاركين في التجربة ثم استطلاع رأيهم بشأن مغزى التفاعلات بين الأشخاص الذين يظهرون في تلك المقاطع من خلال أسئلة موضوعية على غرار "هل ترى أن الأشخاص في هذه المقاطع يواجهون بعضهم البعض"، واسئلة شخصية مثل: "هل التفاعل بين الأشخاص في مقطع الفيديو يبدو إيجابيا أم سلبيا؟". وتبين من التجربة أن المتطوعين عادة ما يتوصلون إلى إجابات متشابهة تنم عن فهم أساسي مشترك للتفاعلات الانسانية. أما أنظمة الذكاء الاصطناعي، فلم تتوصل إلى نفس درجة الاجماع في تفسير مقاطع الفيديو مقارنة بالمتطوعين. وتقول الباحثة كاثي جارسيا، وهي أحد المشاركين في الدراسة من جامعة جون هوبكنز: "لا يكفي أن يشاهد نظام الذكاء الاصطناعي مقطع الفيديو ويتعرف على الأشكال أو الوجوه، بل نحتاج أن يفهم النظام تطور الأحداث في المشهد، وأن يفهم العلاقات والسياق وديناميكيات التفاعلات الاجتماعية، وهذه الدراسة تشير إلى أن هذا العنصر يعتبر بمثابة نقطة عمياء في تطور منظومات الذكاء الاصطناعي". وتأتي هذه النتائج في الوقت الذي تتسابق فيه شركات التكنولوجيا لدمج أنظمة الذكاء الاصطناعي داخل عدد متزايد من الأجسام الروبوتية، وهم مفهوم يطلق عليه اسم "الذكاء الاصطناعي المتجسد"، وقد تم اختبار هذا المفهوم في عدة مدن أميركية مثل لوس أنجليس وفينيكس وأوستن من خلال سيارات ذاتية القيادة تسير في الطرق بجانب السيارات التي يقودها البشر.
وقد اثبتت التجارب أن أنظمة الذكاء الاصطناعي لهذه السيارات تعاني من قصور في فهم بعض مواقف القيادة المركبة مثل القيادة الدائرية أو منحنيات الرجوع للخلف.
أهمية فهم الإشارات الاجتماعية
وبالرغم من أن بعض الدراسات الحديثة أثبتت أن السيارات ذاتية القيادة قد تكون أقل عرضة للحوادث مقارنة بقائدي السيارات، لا تزال السلطات الرقابية المختصة تجري تحقيقات بشأن ما تردد عن مخالفة بعض هذه السيارات لقواعد السلامة. وقطعت شركات تكنولوجية أخرى مثل بوسطن ديناميكس وفيجر إيه أي وتسلا خطوات أبعد نحو تطوير روبوتات على هيئة بشر تعمل بأنظمة الذكاء الاصطناعي في أماكن صناعية جنبا إلى جنب مع عمال على خطوط الانتاج. ويرى الباحثون أن تمكين أنظمة الذكاء الاصطناعي من فهم الإشارات الاجتماعية بين البشر داخل البيئات الصناعية ينطوي على أهمية بالغة لتلافي خطر وقوع الحوادث الصناعية. وفي ذات السياق، تقول الباحثة إيزيك إن "هذه الدراسة تسلط الضوء على أهمية دمج علوم الذكاء الاصطناعي وعلم الاعصاب والعلوم المعرفية بشكل أكبر مع عناصر العالم الحقيقي".
الذكاء الاصطناعي يتقن تفسير الكلمات، لكنه لا يعيش التجربة البشرية التي تُكسبنا الحدس والفهم العميق. قد يتمكن من تخمين المقصود بناءً على الأنماط، لكنه حتى الآن يفتقر إلى الوعي الكامل بالسياق الثقافي والعاطفي الذي يجعل الكلام "غير المباشر" واضحًا للبشر.
ومع تطور النماذج اللغوية وزيادة دمجها بالبيانات الواقعية والعاطفية، قد يقترب الذكاء الاصطناعي يومًا من قراءة ما بين السطور كما نفعل، أو ربما بطريقته الخاصة.