اختراق أنظمة OpenAI.. هاكر يسرب معلومات حساسة حول تقنيات الذكاء الاصطناعي
تاريخ النشر: 5th, July 2024 GMT
تابع أحدث الأخبار عبر تطبيق
في تقرير حديث نشرته صحيفة نيويورك تايمز، تم الكشف عن تعرض شركة OpenAI لهجوم اختراق في مطلع عام 2023، حيث تمكن المخترق من الوصول إلى أنظمة المراسلة الداخلية وسرقة معلومات حساسة حول تقنيات الذكاء الاصطناعي الخاصة بالشركة. وأكدت الصحيفة أن OpenAI لم تقم بإبلاغ عملائها أو الجهات المعنية بهذا الاختراق، مكتفية بإعلام موظفيها فقط.
استطاع الهاكر الوصول إلى محادثات دارت في منتدى إلكتروني خاص بموظفي OpenAI، حيث كانت تتم مناقشات حول أحدث التقنيات التي تطورها الشركة. وعلى الرغم من ذلك، لم يتمكن المخترق من اختراق الأنظمة التي تستضيف نماذج GPT وتدربها، وهي الأنظمة الأساسية التي تشتهر بها OpenAI.
تحذيرات سابقة ومخاوف أمنيةنقلت الصحيفة عن مصدرين داخل الشركة أن بعض موظفي OpenAI كانوا قد حذروا سابقًا من إمكانية استغلال دول مثل الصين لمثل هذه الهجمات لسرقة تقنيات الذكاء الاصطناعي، مما قد يشكل تهديدًا للأمن القومي الأمريكي.
ردود فعل داخليةأثار الحادث تساؤلات بين الموظفين حول جدية الشركة في التعامل مع مسألة الأمن الرقمي. وذكرت تقارير أخرى وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي. وفي هذا السياق، كتب ليوبولد آشينبرينر، مدير البرامج التقنية السابق في OpenAI، مذكرة إلى مجلس إدارة الشركة يتهمهم فيها بعدم بذل جهد كافٍ لمنع سرقة التقنيات السرية من "قوى أجنبية معادية".
تداعيات وتسريباتتم فصل آشينبرينر لاحقًا بدعوى تسريب معلومات سرية، إلا أنه يزعم أن هذا الفصل كان بدافع سياسي. وتأتي هذه التسريبات لتضيف إلى المشاكل التي تواجه شركة OpenAI مؤخرًا، إذ واجه الرئيس التنفيذي للشركة، سام ألتمان، صراعًا مع مجلس الإدارة السابق، حيث أقاله المجلس ثم عاد إلى منصبه لاحقًا.
استقالات وخلافاتشهدت الشركة حديثًا استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي بسبب خلافات حول "التوافق الفائق" (Superalignment)، وهو مفهوم يهدف إلى إيجاد طرق لسيطرة البشر على الذكاء الاصطناعي الفائق.
تواجه OpenAI الآن تحديات كبيرة تتعلق بالأمن الرقمي واحتواء التسريبات، بالإضافة إلى ضرورة تعزيز الثقة بين الموظفين والإدارة. ومع استمرار التطور في مجال الذكاء الاصطناعي، تظل الشركة تحت ضغط كبير لضمان حماية تقنياتها والحفاظ على سمعتها في السوق العالمي.
المصدر: البوابة نيوز
كلمات دلالية: نيويورك تايمز الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
وجد تقرير حديث صادر عن منصة "موك راك" أن نماذج الذكاء الاصطناعي التوليدي الرئيسية تستشهد بالصحافة في ما يقارب نصف الردود على الأسئلة التي توجه إليها، وتحتاج إلى معلومات حديثة.
ويُعدّ المحتوى الصحفي جزءا لا يتجزأ من إجابات أدوات الذكاء الاصطناعي التوليدي، وفقًا لتقرير منصة "موك راك" الأميركية التي تعتبر أداة للتواصل الفعال داخل صناعة الإعلام، وتوفر للصحفيين قاعدة بيانات برمجية وإعلامية تحتوي على ملفات تعريفية.
اقرأ أيضا list of 2 itemslist 1 of 2دراسة: الجمهور يرغب في عناوين بسيطة ومباشرة على عكس الصحفيينlist 2 of 2شبكة الجزيرة تحذر من استهداف صحفييها في غزة بتحريض من الاحتلالend of listوحلل مؤلفو التقرير الذي نُشر هذا الأسبوع، أكثر من مليون استشهاد ناتج عن نماذج الذكاء الاصطناعي التوليدي. وتم الاستشهاد بالمحتوى الصحفي أكثر من 27% من المرات في جميع اختبارات المنصة المذكورة، التي طلب السائلون فيها معلومات حديثة.
وبحسب التقرير فقد قفز الرقم إلى 49%، عندما يتعلق الأمر بالاستعلامات التي تضمنت "مستوى من الحداثة" على أسئلة مثل "أحدث التطورات في أساليب العلاج الخارجي لإدمان المخدرات".
أفضل ستة منافذ إعلامية استشهد بها كل نموذج هي وكالة رويترز، وصحيفتا فاينانشال تايمز، وتايم، وفوربس، وأكسيوس، وقد ظهرت في كل من قائمتي تشات جي بي تي وجيمناي.
بواسطة تقرير موك راك
وبحسب الدراسة وبخصوص استشهادات المحتوى الصحفي، بدا أن نماذج الذكاء الاصطناعي تُفضل القصص المنشورة خلال الاثني عشر شهرا الماضية. وينطبق هذا خاصة على تشات جي بي تي الذي نُشرت 56% من استشهاداته الصحفية خلال العام الماضي. أما بالنسبة لنموذج كلود وهو نموذج لغوي كبير من تطوير شركة أنثروبيك، فقد بلغت هذه النسبة 36% فقط من إجمالي الاستشهادات.
كما وجدت منصة موك راك، أن نوع السؤال المطروح على نماذج الذكاء الاصطناعي غيّر مصادر الاستشهاد بشكل كبير. فالأسئلة الذاتية، مثل الاستفسارات التي تطلب نصائح أو تعليمات خطوة بخطوة، استُمدت بشكل أكبر من "مدونات ومحتوى الشركات".
إعلانولاحظ التقرير، أن أفضل ستة منافذ إعلامية استشهد بها كل نموذج، هي وكالة رويترز، وصحيفتا فايننشال تايمز، وتايم، وفوربس، وأكسيوس، وقد ظهرت في كل من قائمتي تشات جي بي تي وجيمناي.