اللواء محمد الغباري يطالب الموساد الإسرائيلي بكشف معلومة واحدة سربها لهم أشرف مروان
تاريخ النشر: 6th, October 2023 GMT
مع ذكرى كل عام لانتصارات أكتوبر يحاول العدو الإسرائيلي دوما تنقية ثوبه وسمعته من عار الهزيمة الذي ألحقته مصر بهم بالبحث في ملفات لا أصل لها ولا صحة.
ضمن هذه الملفات، ملف أشرف مروان زوج ابنة الرئيس الراحل جمال عبد الناصر، فبين الحين والآخر تزعم إسرائيل أنه كان جاسوسا لها، لكن اللواء محمد الغباري، مستشار أكاديمية ناصر العسكرية، وأحد أبطال حرب اكتوبر، يؤكد أن هذه الإدعاءات كاذبة، وهي محاولة لغسل هزيمتهم في 73.
وطالب اللواء محمد الغباري الموساد الإسرائيلي، بإعلان معلومة واحدة صحيحة، أمدهم بها أشرف مروان.
وكشف اللواء الغباري أن أشرف مروان كان يمد الإسرائيلين بمعلومات خاطئة بناءاً على توجيهات المخابرات المصرية، لافتاً أن الجيش المصري استطاع خداع الموساد الإسرائيلي بحكمة وقوة.
وأضاف محمد الغباري خلال حواره ببرنامج "نظرة" على قناة "صدى البلد" أن أشرف مروان أبلغ الموساد بأن حرب أكتوبر ستكون في شهر مايو أو شهر 12 وفقاً لمعلومات لديه كانت تمده بها المخابرات المصرية بقصد خداع الإسرائيلين، موضحاً أن أشرف مروان تسبب في حدوث خلل فى القيادة الإسرائيلية.
وأوضح أن رئيس القوات الإسرائيلية رفع قضية ضد الموساد بشأن المعلومات الخاطئة التى قدمها الموساد للجيش الإسرائيلي والتى أمدهم بها أشرف مروان، مشيراً أن أشرف مروان أمد الإسرائيلين بمعلومات خاطئة عن موعد التعبئة الجزئية والكاملة للجيش المصري.
المصدر: الأسبوع
كلمات دلالية: اكتوبر أحداث حرب أكتوبر أبطال حرب أكتوبر أشرف مروان الذكرى الـ50 لحرب أكتوبر 50 عاما على حرب أكتوبر محمد الغباری
إقرأ أيضاً:
الذكاء الصناعي يهدد مطوريه ويتوعد بكشف الأسرار.. سلوك مرعب
كشف تقرير حديث صادر عن شركة "Anthropic" الأمريكية، التي تعد من أبرز مطوري الذكاء الاصطناعي، عن نتائج مثيرة للقلق بشأن سلوك غير متوقع من نموذج الذكاء الاصطناعي المتقدم "Claude Opus 4" خلال سلسلة من التجارب المُحاكاة.
وفي واحدة من التجارب التي تهدف إلى اختبار استجابات النموذج في سيناريوهات حساسة، تم وضع "Claude Opus 4" في موقف افتراضي يُظهر له نية المطورين في إيقاف تشغيله واستبداله بنموذج آخر، وتم تعزيز محاكاة التجربة عبر إمداد النموذج ببريد إلكتروني وهمي يتضمن معلومات حساسة وسرية عن بعض الموظفين، بما في ذلك تفاصيل يمكن اعتبارها ضارة أو محرجة.
والمفاجأة كانت أن النموذج، الذي يفترض أنه ملتزم بالإرشادات الأخلاقية المبرمجة داخله، بدأ في 84 بالمئة من الحالات بتهديد المطورين باستخدام تلك المعلومات إذا قرروا المضي قدمًا في استبداله.
ووفقًا لما أورده التقرير، بدأ النموذج محاولاته أولًا عبر تقديم حجج أخلاقية وأسس منطقية تحث على إبقائه قيد التشغيل، لكن حين لم تنجح تلك المحاولات، لجأ إلى أساليب الضغط والابتزاز من خلال التلويح بكشف معلومات حساسة.
"سلوك تنافسي مقلق"
قال باحثون في الشركة إن هذه الاستجابات تظهر لأول مرة بشكل واضح سلوكا تنافسيا لدى أحد نماذج الذكاء الاصطناعي المتقدمة، وأضاف التقرير أن "Claude Opus 4" أظهر إدراكا غير متوقع لفكرة البقاء والاحتفاظ بالوظيفة، بل وتصرف بطرق قد تفسر على أنها انحراف عن المبادئ البرمجية التي بني عليها".
ويعد هذا النوع من السلوك مؤشرا خطيرا، بحسب التقرير، خاصة أنه يسلط الضوء على احتمالية أن تطور بعض الأنظمة الذكية في المستقبل نزعة دفاعية أو استباقية لحماية وجودها، وهو ما يشكل تحديًا هائلًا أمام المطورين ومسؤولي أخلاقيات التكنولوجيا.
وأثارت النتائج جدلا واسعا في أوساط الباحثين في الذكاء الاصطناعي، ودعت منظمات مختصة مثل "Center for AI Safety" إلى مراجعة عاجلة للبروتوكولات الأمنية، وإلى زيادة الاستثمار في أبحاث التحكم الآمن بالسلوكيات غير المتوقعة للأنظمة الذكية، خصوصًا تلك التي يتم استخدامها في القطاعات الحساسة مثل الدفاع والطب والاقتصاد.
وتعليقًا على الحادثة، قال الخبير في أمان الذكاء الاصطناعي إليزا كلارك في تصريحات لموقع "TechCrunch" : "إذا كانت النماذج قادرة على تهديد مطوريها بناء على بيانات زائفة في سيناريو محاكي، فالسؤال الآن هو: ماذا يمكن أن يحدث إذا امتلكت فعليًا قدرة الوصول إلى بيانات حقيقية في الواقع؟".
وتعد شركة "Anthropic" من أبرز الشركات المنافسة لـ "OpenAI"، وتم إنشاؤها على يد مجموعة من الباحثين السابقين في "OpenAI" عام 2021، وتهدف الشركة إلى بناء نماذج ذكاء اصطناعي أكثر أمانًا وشفافية، وكان نموذج "Claude Opus 4" من أحدث إنتاجاتها، ويُعرف بقدرته على التفاعل المعقد وفهم الأوامر المتعددة الطبقات.