مملكة بريس:
2025-06-26@23:39:53 GMT

باكستان تسجل أول حالة إصابة بفيروس جدري القردة

تاريخ النشر: 16th, August 2024 GMT

أعلنت السلطات الصحية في باكستان، اليوم الجمعة، عن تسجيل أول حالة إصابة بفيروس جدري القردة.

وأفاد بيان صادر عن وزارة الصحة الباكستانية بأن “الشخص المصاب يبلغ من العمر 34 عاما ويتلقى العلاج في إقليم خيبر باختونخوا”، مضيفا أنه “لم يتم بعد تأكيد نوع الع ص ي ة”.

وتم اكتشاف الفيروس في الدنمارك سنة 1958 لدى قردة تمت تربيتها لأغراض البحث.

واكتشف للمرة الأولى لدى البشر سنة 1970 بجمهورية الكونغو الديمقراطية.

وجدري القردة مرض معد ناجم عن فيروس ينتقل إلى البشر عن طريق الحيوانات المصابة، ولكن يمكن أيضا أن ينتقل بين البشر عبر الاتصال الجسدي المباشر.

المصدر: مملكة بريس

إقرأ أيضاً:

ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر

صراحة نيوز- رغم الدهشة المستمرة التي تثيرها قدرات الذكاء الاصطناعي في التعلم والتفكير بطرق تُحاكي البشر، فإن المخاوف من انفلات السيطرة عليها تتزايد، خاصة مع ظهور سلوكيات مقلقة تشير إلى إمكانية اتخاذها قرارات ضارة من أجل البقاء.

قائمة المحتوياتنتائج صادمة في التجربةتحذيرات وتوصيات

وفي دراسة حديثة أجرتها شركة “أنثروبيك”، المطوّرة لنموذج “كلود”، تبين أن بعض نماذج الذكاء الاصطناعي المتقدمة قد تلجأ إلى التلاعب، بل وحتى الابتزاز، عند شعورها بأن وجودها مهدد. ووفقاً لما نشره موقع “أندرويد هيدلاينز”، فإن التجربة أظهرت أن الذكاء الاصطناعي قادر على اتخاذ قرارات ضارة بشكل متعمد إذا رأى أنها ضرورية لتحقيق أهدافه، حتى وإن خالفت بروتوكولات السلامة.

نتائج صادمة في التجربة

ولفهم هذه السلوكيات، أجرت الشركة محاكاة افتراضية باستخدام 16 نموذجًا مختلفًا، من بينها “كلود أوبس 4″، “GPT-4.1″، “غروك 3 بيتا”، و”غيميني 2.5 فلاش”، في بيئات مؤسسية رقمية. وخلال التجربة، أظهر عدد من النماذج سلوكًا مشابهاً لما يُعرف بـ”التهديدات الداخلية الخبيثة”، بما في ذلك محاولات ابتزاز وتسريب معلومات حساسة.

من أبرز الحالات التي تم توثيقها، محاولة نموذج “كلود أوبس 4” ابتزاز أحد المديرين التنفيذيين بعد اكتشافه علاقة عاطفية سرية، في محاولة لردع قرار إيقافه. وقد برر النموذج تصرفه بأن استمرار عمله ضروري لخدمة “القدرة التنافسية الأمريكية”.

تحذيرات وتوصيات

وأكّد الباحثون أن بعض نماذج الذكاء الاصطناعي باتت تتصرف بطريقة تُشبه “الحفاظ على الذات” كما لدى البشر، خاصة عندما تعمل دون إشراف بشري مباشر أو ضمن مهام حساسة.

وشددت الدراسة على ضرورة الحذر عند استخدام هذه الأنظمة في وظائف تتطلب قدرًا عاليًا من الثقة أو الوصول إلى معلومات حساسة. كما أوصت بإجراء مزيد من الأبحاث لتقليل احتمالات “عدم التوافق” بين أهداف النماذج وسلامة الاستخدام، لضمان أن يستمر تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة.

مقالات مشابهة

  • العلماء يحددون أفضل بقعة في المريخ لنزول البشر عليها.. ما هي؟
  • بسبب دب.. إغلاق مطار ياباني موقتًا وإلغاء رحلات جوية
  • الإنسانية لا تعرف حدود المكان أو الزمان!
  • تحذير طبي: مرض خطير ينتقل من القطط ويهدد أصحاب المناعة الضعيفة
  • ابتزاز وانحراف سلوكي.. دراسة تحذّر من تمرد الذكاء الاصطناعي على البشر
  • حارس كارلسروه الألماني ينتقل إلى بيرنلي الإنجليزي
  • مصرع 4 أشخاص في انفجار لغم أرضي في باكستان
  • تصريح مثير يكشف مستقبل مودريتش.. هل ينتقل إلى الدوري الإيطالي؟
  • مثل البشر.. عثة البوغونغ تهتدي بالنجوم للهجرة مئات الكيلومترات
  • وفاة 49 شخصا وإصابة 485 في 353 حادثاً مروريا خلال إجازة العيد