ضبط كيانين تعليميين للنصب على المواطنين ومنحهم شهادات دراسية وهمية
تاريخ النشر: 24th, January 2025 GMT
ضبطت مديرية أمن القليوبية كيانين تعليمين فى بنها للنصب على المواطنين بزعم منحهم شهادات دراسية للالتحاق بالعمل فى العمل على خلاف الحقيقة.
وردت معلومات تفيد قيام شخصين بإنشاء وإدارة كيانين تعليميين "بدون ترخيص" بدائرة قسم شرطة بنها ثان بالقليوبية ، للنصب والإحتيال على المواطنين بزعم منحهم شهادات دراسية فى مجالات مختلفة وإيهامهم بكونها تمكنهم من الإلتحاق بالعمل لدى الشركات والمؤسسات الكبرى "على خلاف الحقيقة" مقابل مبالغ مالية.
وعقب تقنين الاجراءات قامت قوة كبيرة من مديرية امن القليوبية وتم مداهمة المكانين وتم ضبط القائمين عليهما وضبط بهما عدد من الكتب التعليمية فى أحد المجالات وعدد من الشهادات الوهمية فى عدة مجالات و2 ختم أكلاشيه وعدد من الكارنيهات و2 دفتر تحصيل نقدية ومبالغ مالية من متحصلات نشاطهما الإجرامى وتحرر المحضر اللازم وتولت النيابة التحقيق.
المصدر: صدى البلد
كلمات دلالية: القليوبية بنها محافظ القليوبية المزيد
إقرأ أيضاً:
الذكاء الاصطناعي يضلل زوجين ماليزيين بفيديو زائف وفتاة وهمية
ففي حادثة غريبة وقعت مؤخرا في ماليزيا اكتشف زوجان مسنان أن وجهة أحلامهما لم تكن سوى خدعة تقنية متقنة صُنعت بالكامل بواسطة الذكاء الاصطناعي.
وبدأت القصة عندما شاهد زوجان فيديو انتشر على فيسبوك وتيك توك ومنصات التواصل الاجتماعي الأخرى، يظهر "تلفريك" في مدينة صغيرة تبعد أكثر من 4 ساعات عن العاصمة الماليزية كوالالمبور.
وحسب ما أورد برنامج "حياة ذكية" في حلقة (2025/7/30)، فقد أظهر الفيديو مشاهد جذابة: مطاعم فاخرة وغزلانا تتجول في محيط الموقع. أما مقدمة الفيديو فبدت فتاة حقيقية، مما عزز مصداقية المكان بالنسبة للزوجين.
وحجز الزوجان فندقا وتوجها إلى المدينة بحثا عن المكان الساحر الذي شاهداه في الفيديو المنتشر، لكن المفاجأة الصادمة أن هذا المكان بما فيه "التلفريك" غير موجود أصلا، فقد كانت كل المشاهد وهما رقميا.
وبعد تأكدهما من زيف الفيديو، فكر الزوجان في رفع شكوى ضد الفتاة التي قامت بالترويج، لكن تبين لهما أنها لم تكن سوى شخصية وهمية لم تُخلق يوما.
وتم إنتاج الفيديو بالكامل بواسطة الذكاء الاصطناعي باستخدام تقنية "غوغل فيو 3″ (Google Veo 3)، وهو الإصدار الأحدث من تقنية توليد الفيديوهات بالذكاء الاصطناعي.
ورغم وضوح الشعار في زاوية الفيديو، لم ينتبه له الزوجان الماليزيان.
وتدق حادثة الزجين الماليزيين التي أثارت ضجة كبيرة ناقوس الخطر وتعيد طرح تساؤلات حقيقية حول أخطار الذكاء الاصطناعي، خاصة في مجال المحتوى المولد تلقائيا أو ما يعرف بـ"ديب فايك" (deepfake)
وباتت التكنولوجيا المتقدمة تمكّن من إنشاء فيديوهات زائفة يصعب تمييزها عن الحقيقية خاصة من قبل المستخدمين غير المتخصصين.
30/7/2025-|آخر تحديث: 22:02 (توقيت مكة)