إنتشال 270 جثة بعد الإنزلاق الأرضي في السودان
تاريخ النشر: 4th, September 2025 GMT
انتشلت فرق الإنقاذ 270 جثة بعد انزلاق أرضي دمّر قرية ترسين في جبل مرة بدارفور. وتقدّر الأمم المتحدة عدد الضحايا بين 300 و1000 شخص، وسط صعوبة في الوصول إلى المنطقة.
وأفادت الأمم المتحدة نقلا عن مصادر ميدانية بمقتل ما بين 300 و1000 شخص في الانزلاق الأرضي. إلا أن حجم الكارثة لم يتضح بعد نظرا لصعوبة الوصول إلى المنطقة.
وقال مجيب الرحمن محمد الزبير، رئيس السلطة المدنية “حتى الآن تم انتشال 270 جثة لضحايا وتم دفنهم”.
وأضاف أنه “ما زال المئات تحت الركام الذي غطى المنازل ومساحة كبيرة من المزارع”. لافتا إلى أن أعدادا كبيرة من الحيوانات نفقت تحت الطين، كما تضررت مصادر المياه.
وتابع قائلا “حتى الآن لم تصل أي منظمة” إنسانية، موضحا أن عمليات الإنقاذ يقوم بها سكان محليون وحركة /جيش تحرير السودان/ بإمكانيات محدودة.
المصدر: النهار أونلاين
إقرأ أيضاً:
الأصوات التي يُنتجها الذكاء الاصطناعي.. الجانب المظلم من التقنية المدهشة
نشر موقع "لايف ساينس" الأمريكي تقريرا يسلّط الضوء على القفزة المذهلة في تطوّر أصوات الذكاء الاصطناعي، التي باتت اليوم شبه مطابقةٍ للأصوات البشرية الحقيقية، إلى حدٍّ يجعل التفرقة بينهما مهمةً شبه مستحيلة.
وقال الموقع، في هذا التقرير الذي ترجمته "عربي21"، إن أصوات الذكاء الاصطناعي عبر مساعداتٍ مثل "سيري" و"أليكسا" بملامحها الآلية ونبرتها الميكانيكية مألوفة لدى الكثيرين، غير أنّ الأبحاث الحديثة تُظهر أنّ تلك الفوارق بدأت تتلاشى. فحسب دراسةٍ نُشرت في مجلة "بلاس وان"، لم يتمكّن المشاركون من التمييز بدقّة بين الأصوات البشرية ونُسخها المولّدة بالذكاء الاصطناعي، بعدما أصبحت الأخيرة قادرةً على محاكاة النغمة والتعبير البشري ببراعةٍ مدهشة.
ونقل الموقع عن الباحثة نادين لافان، من جامعة الملكة ماري في لندن، إنّ الأصوات الاصطناعية صارت تحيط بنا في كل مكان وامتلاك تلك الأنظمة القدرة على التحدث بواقعيةٍ تُشبه الإنسان لم تعد سوى مسألة وقت. وأضافت الدراسة أنّ الأصوات المستنسخة من بشرٍ حقيقيين، أو ما يُعرف بـ"الأصوات المزوّرة العميقة"، أصبحت مُقنِعة بقدر الأصوات الأصلية نفسها.
وأشار الموقع إلى أنّ هذه الطفرة التقنية، رغم ما تحمله من فرصٍ إيجابية في التعليم والتواصل وإمكانية الوصول، تفتح المجال أمام الجرائم الرقمية وخداع الأفراد باستخدام خاصية الاستنساخ الصوتي بالذكاء الاصطناعي الذي يولد أصواتًا يصعب كشفها.
وذكر الموقع أنّ العالم بدأ يشهد بالفعل حوادثَ مقلقة تكشف الوجه المظلم لهذه التقنية. ففي التاسع من يوليو/ تموز، وقعت شارون برايتويل ضحيةَ عملية احتيالٍ صوتي متقن بعد أن تلقّت مكالمةً من صوتٍ يشبه تمامًا صوت ابنتها يبكي ويطلب المساعدة بعد حادثٍ مزعوم، طالبًا المال لتوكيل محامٍ يمنع دخولها السجن. تقول برايتويل: "لم يكن هناك أحدٌ يمكنه إقناعي بأنها لم تكن ابنتي" في إشارةٍ إلى مدى واقعية التزييف الصوتي الذي انطلت حيلته عليها.
وحذّر الموقع من أن هذه القدرة لا تقتصر على الاحتيال الفردي، بل تمتد لتشمل فبركة تصريحاتٍ أو مقابلاتٍ منسوبةٍ إلى سياسيين ومشاهير يمكن أن تُستغل لتشويه السمعة أو إثارة الفتنة والانقسام الاجتماعي. فقد قام محتالون مؤخرًا بإنشاء نسخةٍ صوتيةٍ لرئيس وزراء كوينزلاند ستيفن مايلز، واستخدموا صوته المزوّر للترويج لاحتيالٍ قائمٍ على عملة "البيتكوين".
وبيّن الباحثون أنّ النسخ الصوتية التي استخدموها في دراستهم لم تكن معقّدةً أو باهظةَ التكلفة، إذ صُنعت باستخدام برامج متاحةٍ تجاريًا ودُرِّبت على تسجيلاتٍ صوتيةٍ بشريةٍ لم تتجاوز أربعَ دقائق. وقالت نادين لافان في بيانها: "تطلبت العملية خبرةً محدودة، وبضع دقائق فقط من التسجيلات، وبالكاد أيّ مال. هذا يوضّح مدى سهولة الوصول إلى هذه التقنية ومدى تطورها".
وفي الختام، قال الموقع إنّ "الأصوات المزوّرة العميقة" ليست شرًّا مطلقًا، إذ قد تفتح الباب أمام تطبيقاتٍ إيجابية في مجالات التعليم، والتواصل، وتسهيل الوصول، حيث يمكن للأصوات الاصطناعية المصمّمة بعناية أن ترتقي بتجربة المستخدم وتمنحها طابعًا أكثر إنسانية.