سلطة الضبط تحذر من تهويل إعلامي يُقحم الجزائر في تكهنات زائفة تخدم أجندات أجنبية
تاريخ النشر: 22nd, June 2025 GMT
أصدرت السلطة الوطنية المستقلة لضبط السمعي البصري، مساء اليوم الأحد، بيانًا تدين فيه ترويج عدد من المواقع الإلكترونية لمعلومات زائفة ومضللة حول الوضعين الإقليمي والدولي وتربط الجزائر بتحليلات وتكهنات لا أساس لها من الصحة.
وأوضحت السلطة أن هذه المواقع تقوم بإقحام الجزائر في تحليلات غير دقيقة، تستند إلى تكهنات وأوهام، دون أي مصدر موثوق.
وذكرت السلطة أن هذه المحاولات الإعلامية تنتمي إلى “حروب الجيل الرابع والخامس”، التي تعتمد على نشر معلومات مغلوطة لإثارة الفتن وزعزعة الاستقرار.
واستنكرت السلطة بشدة هذا النوع من التهويل المغرض، محذرةً من الانسياق وراء هذه المضامين المغرضة التي تفتقد لأدنى المعايير المهنية وتروج لخطابات تهدد السكينة العامة وتربك الرأي العام الوطني عبر دعاية موجهة تخدم أجندات أجنبية معروفة بتوظيف الإشاعة كأداة لإضعاف المعنويات والنيل من الثقة في مؤسسات الدولة وزرع البلبلة بين المواطنين.
وأشارت السلطة إلى أن هذا النوع من المحتوى يعد خرقًا صريحًا للمرسوم التنفيذي رقم 24-250، الذي ينظم شروط العمل في الإعلام السمعي البصري. وذكرت بشكل خاص المادة 5 التي تشدد على ضرورة احترام السيادة الوطنية والأمن الوطني في وسائل الإعلام.
كما أكدت السلطة أيضًا أنها لن تتوانى في اتخاذ إجراءات قانونية ضد أي مؤسسة إعلامية تثبت تعمدها في بث هذه الأخبار الزائفة. كما دعت كافة مؤسسات الإعلام السمعي البصري إلى التحلي بالمسؤولية واليقظة العالية، وضمان التحري الدقيق في اختيار المحللين السياسيين الأكفاء والمختصين.
وفي الختام، أكدت السلطة الوطنية للسمعي البصري أن الجزائر، بقوة مؤسساتها وشعبها، لن تتأثر بحملات التشويش الإعلامي. وأضافت أن الإعلام الوطني سيظل دائمًا شريكًا فاعلًا في الدفاع عن الثوابت الوطنية وفي خدمة الصالح العام.
المصدر: النهار أونلاين
إقرأ أيضاً:
وداعاً للخداع البصري.. تقنية خارقة تكشف الفيديوهات المزيفة بدقة هائلة
في تطور لافت في معركة مواجهة المحتوى الرقمي المضلل، أعلن فريق بحثي من جامعة كاليفورنيا – ريفرسايد (UC Riverside) عن ابتكار كاشف عالمي قادر على فضح الفيديوهات المزيفة بدقة تراوحت بين 95% و99%، متفوقًا بذلك على الأدوات التقليدية التي تركز غالبًا على كشف تقنية تبديل الوجوه فقط. ويمثل هذا الابتكار خطوة كبيرة نحو الحد من انتشار الفيديوهات المفبركة التي أصبحت تهدد الثقة بالمحتوى الرقمي عالميًا.
تقنية تتفوق على العين البشرية
النظام الجديد يتميز بقدرته على التعرف إلى مختلف أشكال التلاعب، سواء كانت مقاطع مركبة بالكامل، أو خلفيات معدلة، أو حتى مشاهد مأخوذة من ألعاب فيديو واقعية قد تنخدع بها العين البشرية وتظنها حقيقية. ويعتمد الكاشف على تحليل متزامن لتفاصيل الوجه والعناصر الخلفية، مع تتبع التناقضات الدقيقة في الإضاءة والمكان والزمن، بدءًا من الانعكاسات غير المتناسقة على الأشخاص المدمجين صناعيًا وصولًا إلى الاختلافات الطفيفة في الخلفيات التي تكشف عن عمليات التلاعب.
اقرأ أيضاً.. تحذيرات علمية.. أدوات البحث بالذكاء الاصطناعي تختلق مصادر وروابط وهمية
استجابة لجرائم الابتزاز والتضليل الرقمي
يأتي تطوير هذا الكاشف في ظل انتشار أدوات التزييف العميق الرخيصة التي استُخدمت في جرائم الابتزاز الإلكتروني والاحتيال المالي، إلى جانب حملات التضليل الإعلامي خلال الانتخابات. ويشير الباحثون إلى أن التهديد أصبح أكثر تعقيدًا مع ظهور التزييف العميق في مكالمات الفيديو المباشرة، ما يجعل عملية التحقق من الهوية أكثر صعوبة ويزيد المخاطر الأمنية على الأفراد والمؤسسات.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
تعاون مع "جوجل" وخطط للتطوير المستقبلي
الباحث الرئيسي في المشروع، روهيت كوندو، أكد أن النظام يفترض منذ البداية أن أي مقطع فيديو قد يكون من إنتاج الذكاء الاصطناعي، ويخضع جميع مكوناته للفحص الدقيق بحثًا عن أي تناقض يكشف عملية التلاعب. وشارك عدد من باحثي شركة جوجل في تطوير التقنية، لكن لم يُعلن بعد ما إذا كانت الشركة ستدمجها في منصاتها مثل يوتيوب.
وقد عُرضت نتائج البحث خلال مؤتمر IEEE للرؤية الحاسوبية والتعرف على الأنماط لعام 2025 في مدينة ناشفيل، فيما يعمل الفريق حاليًا على تطوير نسخة تعمل في الزمن الحقيقي يمكن استخدامها في مكالمات الفيديو المباشرة لضمان التحقق الفوري والفعال من الهوية.
إسلام العبادي(أبوظبي)