بالذكاء الاصطناعي.. مستشار أمن سيبراني يخترق صفحة سيد علي على الهواء
تاريخ النشر: 25th, September 2023 GMT
اخترق محمد محسن مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، صفحة الإعلامي سيد علي على فيسبوك باستخدام تقنيات التطور التكنولوجي والذكاء الاصطناعي.
وقال محمد محسن في حواره مع الإعلامي سيد علي في برنامج " حضرة المواطن " المذاع على قناة " الحدث اليوم"، :" الابتزاز الإلكتروني يكون ابتزاز جنسي أو ابتزاز مالي وذلك عن طريق التحكم في الأجهزة الخاصة بالأفراد".
وأضاف محمد محسن:" قمنا باختراق صفحة برنامج الإعلامي سيد علي للتأكيد على قدرة البعض على تنفيذ مخططات خبيثة باستخدام تطبيقات الذكاء الاصطناعي ".
وتابع محمد محسن:" قمنا باستخدام الذكاء الاصطناعي لتصوير فيديو وهمي ونشر بوستات وهمية وتعديل كود خاص في الصحفة على فيسبوك".
وأكمل محمد محسن:" يتم الترويج إلى وعي زائف عن طريق الاستخدام السيء للذكاء الاصطناعي ولابد من الوعي من هذه الطرق الخبيثة".
المصدر: صدى البلد
كلمات دلالية: سيد على أمن سيبراني الذكاء الاصطناعي اخبار التوك شو مصر محمد محسن سید علی
إقرأ أيضاً:
ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.
واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.
يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.
في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.
وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".
وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".
لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.
مخاوف من غياب الخبرةتشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.
في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.
وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".
وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".
تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.
تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.
ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.