اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي
تاريخ النشر: 5th, July 2024 GMT
تابع أحدث الأخبار عبر تطبيق
في تقرير حديث نشرته صحيفة نيويورك تايمز، تم الكشف عن تعرض شركة OpenAI لهجوم اختراق في مطلع عام 2023، حيث تمكن المخترق من الوصول إلى أنظمة المراسلة الداخلية وسرقة معلومات حساسة حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن OpenAI لم تقم بإبلاغ عملائها أو الجهات المعنية بهذا الاختراق، مكتفية بإعلام موظفيها فقط.
استطاع الهاكر الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI، حيث كانت تتم مناقشات حول أحدث التقنيات التي تطورها الشركة. وعلى الرغم من ذلك، لم يتمكن المخترق من اختراق الأنظمة التي تستضيف نماذج GPT وتدربها، وهي الأنظمة الأساسية التي تشتهر بها OpenAI.
تحذيرات سابقة ومخاوف أمنيةنقلت الصحيفة عن مصدرين داخل الشركة أن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين لمثل هذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي.
ردود فعل داخليةأثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي. وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي. وفي هذا السياق، كتب ليوبولد آشينبرينر، مدير البرامج التقنية السابق في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من "قوى أجنبية معادية".
تداعيات وتسريباتتم فصل آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي. وتأتي هذه التسريبات لتضيف إلى المشاكل التي تواجه شركة OpenAI مؤخرًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس الإدارة السابق، حيث أقاله المجلس ثم عاد إلى منصبه لاحقًا.
استقالات وخلافاتشهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول "التوافق الفائق" (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.
تواجه OpenAI الآن تحديات كبيرة تتعلق بالأمن الرقمي واحتواء التسريبات، بالإضافة إلى ضرورة تعزيز الثقة بين الموظفين والإدارة. ومع استمرار التطور في مجال الذكاء الاصطناعي، تظل الشركة تحت ضغط كبير لضمان حماية تقنياتها والحفاظ على سمعتها في السوق العالمي.
المصدر: البوابة نيوز
كلمات دلالية: نيويورك تايمز الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
كيف تكشف التزييف في عصر الذكاء الاصطناعي؟
شهد العالم الرقمي تحولًا واسعًا مع ظهور تقنيات قادرة على إنتاج محتوى مرئي يكاد يتطابق مع الحقيقة، ويأتي التزييف العميق في مقدمة هذه التقنيات لما يمتلكه من قدرة على تركيب الوجوه وتوليد مشاهد كاملة، مما أثار مخاوف تتعلق بالمصداقية والأمن، ودفع إلى تطوير وسائل فعّالة للكشف عن التلاعب.
قد تبدو حركة العين غير طبيعية، فيقل الرمش أو يزيد، أو يظهر البؤبؤ ثابتًا لا يتماشى مع حركة الرأس
تزامن الشفاه مع الصوتأي اختلاف بين حركة الفم والكلام يدل على معالجة رقمية أو دمج غير دقيق
تشوه الحواف والدمج غير المتقنقد تظهر ضبابية أو اهتزازات حول خط الشعر والذقن والرقبة نتيجة صعوبة دمج الوجه الرقمي بالجسد الحقيقي
اختلاف الإضاءة ولون البشرةقد يلاحظ المتلقي اختلافًا بين لون بشرة الوجه وبقية أجزاء الجسد، أو ظلالًا غير منطقية لا تتناسب مع مصادر الضوء
صوت غير طبيعيقد يبدو الصوت مسطحًا أو ذا طابع معدني بسبب توليده بالذكاء الاصطناعي، ما يجعله يفتقر إلى الانفعالات البشرية.
ثانيًا: تقنيات متقدمة للكشف الدقيق عن الفيديوهات المزيفةأداة Microsoft Video Authenticatorتعتمد على تحليل تدرجات الألوان والحدود الدقيقة للدمج، وتمنح المستخدم نسبة لاحتمال التلاعب
تقنية Intel FakeCatcherترصد التغيرات الدقيقة في لون البشرة الناتجة عن تدفق الدم، وهي تغييرات يصعب التلاعب بها، مما يجعلها فعّالة في الكشف اللحظي
منصة Sensity AIتتبع انتشار المقاطع المزيفة عبر الإنترنت باستخدام قواعد بيانات ضخمة ونماذج متقدمة
أداة Sentinel للتلاعب الصوتيتحلل الطيف الصوتي للكشف عن الأصوات المستنسخة أو المُولدة رقميًا
مجموعة WeVerify الأوروبيةتوفر نظامًا متكاملًا للتحقق من أصل الفيديو وسياق نشره وبياناته الوصفية، مما يمنح رؤية شاملة حول مدى صدقيته.
تحدي حقيقيأصبحت تقنيات التزييف العميق تحديًا حقيقيًا في عالم الاتصال الرقمي، فهي قادرة على إنتاج مقاطع تبدو حقيقية إلى حد يربك المتلقي ويهدد موثوقية المعلومات، ومن هنا تأتي أهمية الوعي بهذه الظاهرة ومعرفة العلامات البصرية والسمعية التي تفضحها، إلى جانب الاستفادة من الأدوات التقنية المتقدمة التي تكشف التلاعب بدقة عالية.