إيلون ماسك يهاجم الصحافة بعد الهجوم على روبوت تسلا
تاريخ النشر: 28th, December 2023 GMT
انتقد إيلون ماسك التقارير الإعلامية الأخيرة عن "هجوم" روبوت على مصنع تيسلا في أوستن.
كتب ماسك في منشور X يوم الأربعاء: "من المخزي حقًا أن تقوم وسائل الإعلام بكشف إصابة حدثت قبل عامين بسبب ذراع روبوت صناعي بسيط من نوع Kuka (موجود في جميع المصانع) وتلمح إلى أن ذلك يرجع إلى أوبتيموس الآن".
كان الرئيس التنفيذي لشركة Tesla يرد على مستخدم X الذي شارك تقريرًا لصحيفة Daily Mail يوم الثلاثاء حول حادث روبوت في المصنع في عام 2021.
وكانت المعلومات قد غطت الحادثة أيضًا في قصة نشرت الشهر الماضي. وفقًا للمنفذ، قال شاهدان إن مهندسًا كان يقوم بتشغيل تحديثات البرامج على روبوتات المصنع عندما تم إمساكه وتثبيته على السطح بواسطة إحدى الآلات.
وقال الشهود أيضًا إن المهندس تُرك ينزف بعد أن غرز الروبوت مخالبه في جسده. وفي النهاية، نجا المهندس من براثن الروبوت عندما ضغط عامل آخر على زر التوقف في حالات الطوارئ، وفقًا للمعلومات.
ومع ذلك، يبدو أن غضب " ماسك " من منشور صحيفة ديلي ميل كان بسبب تأطير المنفذ للحادث. استخدمت قصة ديلي ميل صورة مصغرة تظهر روبوتات تسلا أوبتيموس التي تشبه البشر، وليس ذراع الروبوت كوكا الذي شارك في حادثة 2021.
لن يكون دفاع " ماسك " عن روبوتات أوبتيموس مفاجئًا لأنه يعلق عليها آمالًا كبيرة. وعندما كشف النقاب عنها العام الماضي، قال إن الاقتصاد يمكن أن يصبح "شبه لا نهائي" إذا كانت روبوتات أوبتيموس قادرة على العمل اليدوي.
قال ماسك حينها: "هذا يعني مستقبلًا من الوفرة. مستقبل لا يوجد فيه فقر، حيث يمكنك الحصول على ما تريد من المنتجات والخدمات".
ومع ذلك، فإن الشكاوى المتعلقة بالسلامة تلاحق منذ فترة طويلة مصانع تيسلا التابعة لماسك. وفي عام 2020، قال المنظمون في كاليفورنيا إن شركة تسلا أرسلت إليهم تقارير غير كاملة عن إصابة المصنع.
ولا يقتصر الأمر على الولايات المتحدة فقط. في الآونة الأخيرة، في أبريل، قال المفتشون الصينيون إنهم يريدون معاقبة الشركة بسبب نقاط الضعف في السلامة، وفقًا لشركة Caixin Global. ووفقا للتقرير، توفي عامل بمصنع تيسلا في شنغهاي بعد أن سحقته معدات المصنع.
في أكتوبر، رفضت شركة تسلا ادعاءات الاتحاد الألماني ووسائل الإعلام في البلاد بأن مصنع برلين Gigfactory يفتقر إلى أحكام السلامة المناسبة.
المصدر: بوابة الوفد
إقرأ أيضاً:
كيف يستغل الهاكرز روبوتات الذكاء الاصطناعي في استهداف ضحاياهم
تمتلك روبوتات الذكاء الاصطناعي الموجهة لعامة الناس مثل "شات جي بي تي" و"جيميناي" و "كوبايلوت" إمكانيات كبيرة يمكن استخدامها في الخير والشر، فمثلا يمكن أن تساعد الأطباء في تشخيص الأمراض بدقة أكبر، وتوفر للناس إمكانية الوصول إلى خبرات أكاديمية ومهنية بسهولة.
وبالمقابل يمكن أن يستخدمها الكثير من الهاكرز لاستهداف الأشخاص والشركات بفعالية أكبر وبتكلفة أقل من أي وقت مضى، وقد تكون واثقا من قدرتك على اكتشاف الهجمات الخبيثة، ولكن تتفاجأ بأساليب جديدة تبدو وكأنها قادمة من الخيال.
كيف يستخدم الهاكرز الذكاء الاصطناعي لاختيار ضحاياهم؟يعتمد الهاكرز على سرقة حسابات وسائل التواصل لخداع الناس، وأحيانا يقومون بإنشاء حسابات مزيفة تشبه حسابات حقيقية أو يخترقون حسابات حقيقية بهدف كسب ثقة الضحايا واستغلالها.
ويمكن لروبوتات الذكاء الاصطناعي اليوم مساعدة هؤلاء القراصنة في جمع الصور والمعلومات من حسابات التواصل مثل السيرة الذاتية والمنشورات والصور لإنشاء حسابات مزيفة تشبه الحساب الحقيقي، وبعد ذلك يرسلون طلبات صداقة إلى أصدقاء الضحية حتى يظنوا أنهم يتحدثون مع شخص يعرفونه فعلا.
وفي حال تمكن المخترق من السيطرة على حساب حقيقي، فإن هذا يمنحه فرصة أكبر لتنفيذ هجمات أكثر ذكاء، إذ يمكن لأدوات الذكاء الاصطناعي تحليل المحادثات السابقة واكتشاف العلاقات القريبة وحتى تقليد طريقة الكتابة، مما يجعل الرسائل تبدو طبيعية ومقنعة وقد تحتوي هذه الرسائل على روابط خبيثة أو طلبات مالية أو حتى قصص طارئة مزيفة.
إعلانوبسبب هذه المخاطر، أصبحت المواقع تستخدم وسائل حماية أقوى مثل التحقق بخطوتين (2FA) واختبارات "كابتشا" (CAPTCHA) المعقدة وأنظمة مراقبة السلوك، لكن رغم ذلك يظل العنصر البشري هو الحلقة الأضعف، لأن خداع الناس نفسيا أسهل من كسر الأنظمة التقنية.
أنواع الهجمات الإلكترونية التي تعتمد على روبوتات الذكاء الاصطناعييستخدم مجرمو الإنترنت تقنيات ذكاء اصطناعي متعددة لإنشاء برمجيات ضارة ذكية أو لتقليد شخصيات مشهورة أو جهات معروفة، ورغم أن العديد من هذه الهجمات الاحتيالية تعتمد على أساليب الخداع التقليدية، فإن الذكاء الاصطناعي يجعلها أكثر إقناعا وأصعب في اكتشافها، وسنذكر أبرز الهجمات الإلكترونية التي يعتمدها الهاكرز في استهداف ضحاياهم.
انتشرت في الآونة الأخيرة نسخ خبيثة من نماذج الذكاء الاصطناعي مثل "وورم جي بي تي" (WormGPT) و "فرود جي بي تي" (FraudGPT) و "أونيون جي بي تي" (OnionGPT) التي يمكن استخدامها لإنشاء برمجيات ضارة واكتشاف ثغرات الأمان في الأنظمة وتقديم نصائح للاحتيال والاختراق والسيطرة على أجهزة الآخرين.
ويُعد نموذج "لوف جي بي تي" (Love-GPT) هو الأخطر لأنه متخصص في عمليات الاحتيال العاطفي، حيث يسمح بإنشاء حسابات وهمية على تطبيقات المواعدة المشهورة مثل "تيندر" (Tinder) و"بامبل" (Bumble) ويقوم بالدردشة مع الضحايا بشكل مقنع لخداعهم، ومن الجدير بالذكر أن هذه الأداة موجودة منذ أكثر من عقد من الزمن ولكن لم تُدمج فيها تقنية الذكاء الاصطناعي إلا بعد إطلاق "شات جي بي تي" بأشهر.
شرح الكود البرمجي واكتشاف الثغرات الأمنيةتُعد روبوتات الذكاء الاصطناعي وخاصة "شات جي بي تي 4" أدوات مفيدة في شرح الكود البرمجي واكتشاف الثغرات الأمنية فيه، ولأن هذه الأدوات وجدت لمساعدة المستخدمين، فسوف تعتقد أنك بحاجة لفحص كود برمجي خاص بشركتك أو تطبيقك بهدف حمايتها من الاختراق، وهو ما يستغله الهاكرز لتنفيذ اختراقه.
إعلانفعند تزويد "شات جي بي تي" بمثال يحتوي على كود معين، يمكنه تحديد المشكلات الأمنية ويعرض كيف يمكن للمهاجم استغلال هذا الضعف لتنفيذ أوامر خبيثة، وبعد ذلك يُقدم نسخة محسنة من الكود تُظهر كيفية معالجة هذه الثغرة وتأمين الموقع أو التطبيق.
ومن الجدير بالذكر أن روبوتات الذكاء الاصطناعي المتقدمة -خاصة بالنسخ المدفوعة- قادرة على تحليل أكواد شديدة التعقيد وشرح طريقة عملها والكشف عن الثغرات بل وحتى توضيح كيف يمكن استغلالها.
البرمجيات الخبيثة الذكيةمع ظهور الذكاء الاصطناعي ظهر نوع جديد وخطير من البرمجيات الخبيثة تعمل بشكل مستقل تماما. ففي السابق كان الهاكر يحتاج إلى أن يتحكم يدويا في البرمجيات الخبيثة بعد أن يتمكن من حقنها داخل شبكة أو جهاز الضحية، ولكن اليوم أصبح من الممكن أن تعمل بشكل تلقائي دون تدخل بشري.
ومع وجود نماذج ذكاء اصطناعي مثل "شات جي بي تي" أصبحت البرمجيات الخبيثة قادرة على اتخاذ قرارات بنفسها، مما يُمكنها من تحديد موقع البيانات المهمة، ومعرفة موقع كلمات المرور المخزنة محليا، وحتى كيفية الاتصال بمصادر البيانات واستخراجها تلقائيا.
وبفضل قدرتها على معالجة كميات كبيرة من البيانات بشكل أكثر كفاءة من الإنسان، فإن استخدام البرمجيات الخبيثة الذكية يشكل خطرا أكبر بكثير مقارنة بالبرمجيات الخبيثة التقليدية التي تتطلب تفاعل الهاكر بشكل يدوي.
ونظرا لأن البرمجيات الخبيثة تعمل بشكل مستقل، لم يعد من الضروري أن يتحكم الهاكر في البرمجيات ويوجهها يدويا، وهذا يجعلها ليست فقط أكثر خطورة، بل وأكثر شيوعا أيضا، وهذا يعني أن المزيد من الشركات قد تكون عرضة للاختراقات العشوائية بدلا من أن تكون هدفا محددا.
يستخدم الهاكرز الآن روبوتات الذكاء الاصطناعي لنشر معلومات كاذبة على نطاق واسع وبسرعة كبيرة، إذ تقوم هذه الروبوتات بإنشاء تعليقات ومنشورات مزيفة على مواقع التواصل ومنتديات النقاش لنشر أخبار كاذبة بطريقة تبدو حقيقية ومقنعة.
إعلانوعلى عكس الحملات التقليدية التي كانت تتطلب وقتا وجهدا بشريا، يمكن الآن لأدوات الذكاء الاصطناعي أن تُدير العملية كاملة بشكل آلي، مما يجعل الأخبار الزائفة تنتشر بشكل أسرع وأسهل، كما تستطيع هذه الروبوتات إنشاء حسابات وهمية تتفاعل مع المنشورات وتنشرها لتعزيز مصداقيتها، وإذا انتشرت هذه الحسابات بكثرة فقد تتمكن من إقناع الأشخاص غير المطلعين أو المترددين بالانحياز إلى روايتها.
ولا يتوقف الأمر عند نشر الشائعات فقط، بل تُستخدم هذه الحملات أيضا لتوجيه المستخدمين إلى مواقع الاحتيال، حيث يمكن أن تحتوي الأخبار الكاذبة على روابط ضارة، وغالبا ما تنتشر هذه المنشورات قبل أن يتمكن المدققون من التحقق من صحتها، مما يؤدي إلى أن يشاركها كثير من الناس دون علم بحقيقتها.
هجمات التصيد الاحتياليلطالما كانت هجمات التصيد الاحتيالي عبر الرسائل النصية القصيرة والبريد الإلكتروني من أساليب المحتالين الشائعة، إذ تعتمد هذه الهجمات على انتحال شخصية شركة معروفة وهيئة حكومية بهدف سرقة بيانات تسجيل الدخول الخاصة بحسابات المستخدمين.
وبالمقابل تبرز هجمات التصيد الاحتيالي الموجه، التي تتطلب من المهاجمين إجراء بحث واستطلاع وصياغة رسائل بريد إلكتروني ونصوص مخصصة للغاية لخداع ضحاياهم، ومع ذلك فإن محاولات التصيد الاحتيالي الموجه لا تستهدف الأشخاص العاديين بل هي موجهة للشركات والأشخاص البارزين، حيث إنها تتطلب جهدا كبيرا لتنفيذها بنجاح.
و باستخدام روبوتات الذكاء الاصطناعي أصبح بإمكان مجرمي الإنترنت أتمتة هجمات التصيد الاحتيالي الموجه الجماعية دون إنفاق موارد أو وقت كبير على تمويل الحملة، وقد يستخدمون تقنية التزييف العميق (DeepFake) لإنشاء مقاطع فيديو مفبركة لشخصيات مهمة ليبدو الاحتيال أكثر إقناعا.
وفي إحدى الحالات، نشر موقع يوتيوب على منصة "إكس" تحذيرا يُنبه فيه صناع المحتوى من عمليات الاحتيال التي تتضمن مقطع فيديو مزيفًا لرئيسه التنفيذي، والذي صمم لخداعهم والكشف عن بيانات اعتماد تسجيل الدخول الخاصة بهم.
إعلان