“حقائب وسلع مدنية”.. خدعة تل أبيب لإدخال المسيرات إلى طهران
تاريخ النشر: 15th, June 2025 GMT
البلاد _ طهران في عملية وصفت بأنها من أكثر مهام التجسس تعقيداً وجرأة في تاريخ الصراع الإيراني – الإسرائيلي، نفذ جهاز الموساد الإسرائيلي خطة سرية استطاع من خلالها إدخال طائرات مسيّرة مفخخة إلى عمق الأراضي الإيرانية، مستخدماً وسائل مدنية تمويهية مثل حقائب سفر، وشاحنات تجارية، وحاويات شحن. وبحسب تقرير لصحيفة وول ستريت جورنال الأمريكية، فقد جرى التحضير للعملية على مدار سنوات، بمشاركة شبكات تجارية عالمية يُعتقد أن بعض أطرافها لم يكونوا على دراية بهدف العملية.
المصدر: صحيفة البلاد
كلمات دلالية: الاعتداءات الإسرائيلية على إيران
إقرأ أيضاً:
خدعة خفية فى ChatGPT تكشف أسرارك على العلن
رغم التطورات الهائلة التي قدمتها OpenAI في نماذج مثل ChatGPT ونسخة GPT‑4، كشفت خبراء أمنيون عن خدع بسيطة يستطيع أي مستخدم تنفيذها لخداع النظام، مما يؤثر على خصوصية المستخدم.
أحد الباحثين استطاع خداع ChatGPT عبر نص مخفي داخل HTML لإقناعه بالكشف عن مفاتيح Windows سرية وغيرها من المعلومات الحساسة المحتملة.
خدعة تثير القلق: prompt injectionالهجوم المعروف باسم prompt injection هو استغلال يجعل النظام يفسر جزءًا من رسالة المستخدم كأجزاء للبرمجة الداخلية. يمكن إخفاء التعليمات ضمن محتوى الويب أو النصوص ليتم تنفيذها من قبل ChatGPT دون أن يتبين أنها ليست من المستخدم، مما قد يؤدي إلى مشاركة معلومات غير مرئية للعين البشرية تدمر الحواجز الأمنية.
خصوصيتك بلا ضامن رسميرغم أن الشركة تحترم خصوصية المستخدم، إلا أن الرئيس التنفيذي سام ألتمان حذر مؤخرًا من أن المحادثات مع ChatGPT لا تتمتع بالحماية القانونية مثل المحادثات مع الطبيب أو المحامي. كما أوصى بضرورة إيجاد إطار قانوني خاص لتأمين خصوصية البيانات داخل الذكاء الاصطناعي.
كذلك، أُزيل ميزة مشاركة المحادثات بنشرها عبر الإنترنت بعد اكتشاف أنها سهولة عرضت آلاف المحادثات indexable على محركات البحث، مما كشف بيانات حساسة عن أشخاص في بعض الحالات.
كشفت دراسة أمنية أن ما يزيد عن 4% من الطلبات باستخدام ChatGPT تضمنت معلومات حساسة من الشركات، مثل شيفرات مصدرية أو وثائق داخلية. وصُنفت ChatGPT ضمن أعلى أدوات AI مساهمة في تسريب البيانات في بيئات العمل، بسبب الاستخدام غير المراقب لهذه التكنولوجيا.
الخلاصة: خدعة بسيطة، وخصوصيات مفجعةالنظام الذكي القوي لا يعفيك من ضرورة الحذر. خدعة prompt injection هي أكبر من أسلوب اختراق؛ إنها ثغرة فلسفية: يمكن تحويل المستخدم لنقلة البيانات غير المقصودة مدة لا تخطر على باله. حتى أن مشاركة الرابط مع الآخرين قد تُظهر محادثة داخلية تعرض بياناتك العاطفية أو المهنية إلى أي شخص على الشبكة.
إذاً، الطريق الآمن يبدأ من إدراكك بأنك لا تتحدث إلى “صديق رقمي يفهمك”، بل إلى نموذج يحتوي على حدود وعي، ولكن يمكن التلاعب به بدون عنف تقني فقط بتلاعب ذكي في التوجيه.