تمكن أحد المتسللين من اختراق أنطمة المراسلة الداخلية لشركة OpenAI، وقام بسرقة تفاصيل خاصة بتقنيات الذكاء الاصطناعي للشركة، وحصل على تفاصيل من المناقشات بين الموظفين عن أحداث في منتدى عبر الإنترنت حيث تحدث الموظفون عن أحدث تقنيات OpenAI.

وبحسب مصادر داخل الشركة فقد حذر بعض موظفي OpenAI، من قيام بعض الدول مثل الصين، باستغلال تلك الهجمات لسرقة تقنيات الذكاء الاصطناعي، ما يشكل تهديدًا للأمن القومي الأمريكي، وأثار الحادث تساؤلات حول طريقة الشركة في التعامل مع الأمن الرقمي، خاصة مع وجود انقسامات داخل الشركة بشأن المخاطر المحتملة للذكاء الاصطناعي.

هل وصل المتسللين إلى شات جي بي تي؟

قالت صحيفة نيويورك تايمز إن المتسللين لم يتمكنوا من الوصول للأنظمة التي تقوم وراء روبوت الدردشة ChatGPT، بينما أثار ليوبولد أشنبرينر، مدير البرنامج الفني لشركة OpenAI مخاوف أمنية مع مجلس إدارة الشركة، بعد اكتشاف نقاط ضعف داخلية يستغلها المتسللين لاختراق الشركة.

انقسامات ومشاكل في الشركة

وتعد تلك التسريبات ضمن سلسلة من المشاكل التي تواجهها OpenAI مؤخرًا، بالإضافة إلى الصراع الذي واجهه سام ألتمان الرئيس التنفيذي للشركة مع مجلس الإدارة، خاصة أنه أقيل من منصبه ثم عاد مرة أخرى. 

وكانت الشركة قد شهدت استقالة العديد من الباحثين في مجال سلامة الذكاء الاصطناعي، بسبب خلافات حول مفهوم «التوافق الفائق»،  الذي يهدف إلى إيجاد طرق للتحكم البشري في الذكاء الاصطناعي.

المصدر: الوطن

كلمات دلالية: شات جي بي تي الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • سلوكيات مرعبة للذكاء الاصطناعي بابتزاز وخيانة مطوريه
  • أكاديمي: دقة اتخاذ القرار في الذكاء الاصطناعي تتجاوز 90%  
  • ميتا تتعاون مع أوكلي لإطلاق نظارات الذكاء الاصطناعي
  • ما كمية الطاقة التي يستهلكها الذكاء الاصطناعي لتقديم إجابة واحدة؟
  • هكذا سيهيمن الذكاء الاصطناعي على المهن بحلول 2027
  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي