OpenAI تواجه مشكلتين أمنيتين كبيرتين
تاريخ النشر: 5th, July 2024 GMT
يبدو أن OpenAI تتصدر عناوين الأخبار كل يوم، وهذه المرة بسبب جرعة مضاعفة من المخاوف الأمنية. تركز المشكلة الأولى على تطبيق Mac لـ ChatGPT، بينما تشير المشكلة الثانية إلى مخاوف أوسع حول كيفية تعامل الشركة مع أمنها السيبراني.
في وقت سابق من هذا الأسبوع، قام المهندس ومطور Swift Pedro José Pereira Vieito بالبحث في تطبيق Mac ChatGPT ووجد أنه كان يخزن محادثات المستخدم محليًا بنص عادي بدلاً من تشفيرها.
بالنسبة لغير المطورين، يعتبر وضع الحماية بمثابة ممارسة أمنية تمنع نقاط الضعف والفشل المحتملة من الانتشار من تطبيق إلى آخر على الجهاز. وبالنسبة للخبراء غير المتخصصين في مجال الأمن، فإن تخزين الملفات المحلية بنص عادي يعني أنه يمكن بسهولة عرض البيانات الحساسة بواسطة تطبيقات أو برامج ضارة أخرى.
حدثت المشكلة الثانية في عام 2023 وكانت لها عواقب لا تزال مستمرة حتى اليوم. في الربيع الماضي، تمكن أحد المتسللين من الحصول على معلومات حول OpenAI بعد الوصول بشكل غير قانوني إلى أنظمة المراسلة الداخلية للشركة. ذكرت صحيفة نيويورك تايمز أن مدير البرنامج الفني لشركة OpenAI، ليوبولد أشنبرينر، أثار مخاوف أمنية مع مجلس إدارة الشركة، بحجة أن الاختراق يشير ضمنًا إلى نقاط ضعف داخلية يمكن أن يستغلها الخصوم الأجانب.
يقول أشنبرينر الآن إنه طُرد بسبب الكشف عن معلومات حول شركة OpenAI ولإبراز المخاوف المتعلقة بأمن الشركة. قال ممثل من OpenAI لصحيفة The Times إنه "بينما نشاركه التزامه ببناء الذكاء الاصطناعي العام الآمن، فإننا نختلف مع العديد من الادعاءات التي أطلقها منذ ذلك الحين بشأن عملنا" وأضاف أن خروجه لم يكن نتيجة للإبلاغ عن المخالفات.
تعد نقاط الضعف في التطبيقات أمرًا شهدته كل شركة تقنية. كما أن الخروقات التي يرتكبها المتسللون شائعة بشكل محبط، وكذلك العلاقات المثيرة للجدل بين المبلغين عن المخالفات وأصحاب العمل السابقين. ومع ذلك، بين مدى اعتماد ChatGPT على نطاق واسع في خدمات اللاعبين الرئيسيين ومدى الفوضى التي كانت عليها مراقبة الشركة وممارساتها وسمعتها العامة، بدأت هذه المشكلات الأخيرة في رسم صورة أكثر إثارة للقلق حول ما إذا كان بإمكان OpenAI إدارة بياناتها.
المصدر: بوابة الوفد
إقرأ أيضاً:
ليست سرية.. خصوصية محادثات ChatGPT على المحك
في تطور لافت يثير تساؤلات جوهرية حول مستقبل الخصوصية الرقمية، صرّح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن المحادثات التي يُجريها المستخدمون مع روبوت الدردشة الذكي "ChatGPT" لا تتمتع بالسرية الكاملة، جاء ذلك خلال ظهوره في بودكاست "This Past Weekend" الذي يقدمه "ثيو فون" على منصة يوتيوب.
كشف سام ألتمان عن أن العديد من المستخدمين يشاركون روبوت ChatGPT بتفاصيل شديدة الخصوصية، تتعلق بحياتهم النفسية والعاطفية والعائلية، معتبرينه بمثابة معالج رقمي أو مدرب حياة، لكنه شدد على أن هذه المحادثات لا تخضع للحماية القانونية التي توفرها جلسات العلاج النفسي أو الاستشارات القانونية التقليدية.
خارج عن الإطار القانونيأوضح ألتمان قائلاً: "إذا تحدثتَ مع طبيب أو معالج نفسي أو محامٍ، فإن القانون يكفل سرية تلك المحادثات، أما التفاعل مع ChatGPT، فلا يزال خارج هذا الإطار القانوني، ونحن لم نحدد بعد المعايير التي يجب أن تنطبق على هذا النوع من الخصوصية."
بيانات حساسة تحت التهديدوأشار الرئيس التنفيذي لـ OpenAI إلى سيناريو مقلق، حيث قد تُستخدم المحادثات التي يجريها المستخدم مع ChatGPT كأدلة في قضايا قانونية مستقبلية، مؤكدًا: "إذا تحدثتَ عن أمور شخصية وحساسة، ثم ظهرت قضية قانونية، فقد تُجبَر OpenAI على تسليم محتوى تلك المحادثات، وهذا أمر غير سليم من منظور الخصوصية."
غياب التشفير الكامل واحتفاظ الشركة بالسجلاتفي الوقت الذي تعتمد فيه تطبيقات مثل "واتساب" و"سيجنال" على التشفير التام بين الطرفين لضمان الخصوصية، فإن OpenAI تحتفظ بحق الوصول إلى محادثات المستخدمين على ChatGPT، وتُستخدم هذه البيانات لتحسين أداء النماذج ومراقبة الاستخدامات غير المشروعة، ما يزيد من المخاوف المتعلقة بإمكانية إساءة استخدام البيانات أو الوصول إليها دون إذن.
ورغم أن الشركة تعهدت بحذف المحادثات التي تُجرى عبر النسخة المجانية من ChatGPT خلال 30 يومًا، إلا أنها تحتفظ بالحق في تخزينها لأغراض أمنية أو قانونية، خصوصًا في حال الاشتباه بوجود استخدام ضار أو مخالف.
ضغوط قانونية متزايدة على OpenAIتأتي تصريحات ألتمان في وقت تواجه فيه OpenAI دعوى قضائية من صحيفة "نيويورك تايمز"، وهي دعوى أجبرت الشركة على أرشفة ملايين المحادثات التي أجراها المستخدمون مع ChatGPT، ما عدا تلك المرتبطة بالحسابات المؤسسية، مما يعزز من احتمالية أن تصبح تلك البيانات متاحة ضمن سجلات قانونية أو قضائية في المستقبل القريب.
الحاجة إلى إطار تنظيمي واضحفي ضوء هذه التطورات، تتعالى الأصوات المطالِبة بوضع إطار قانوني واضح ينظم العلاقة بين المستخدمين وأنظمة الذكاء الاصطناعي، ويضمن الحماية الكاملة للبيانات الشخصية والحساسة، لذلك فإن سرية المحادثات مع ChatGPT أمرًا غير مضمون، ويتطلب من المستخدمين الحذر فيما يشاركونه من معلومات.