كشفت شركة (OpenAI) مطورة برنامج «شات جي بي تي»، أمس الجمعة، عن حل فريقها المخصص للتخفيف من المخاطر طويلة المدى للذكاء الاصطناعي الفائق الذكاء، وذلك بعد عام واحد فقط من إعلان الشركة عن تشكيل هذا الفريق.

وبدأت «أوبن إيه آي» منذ أسابيع في حل ما يُسمى بمجموعة «superalignment» (مجموعة المحاذاة الفائقة)، ودمج الأعضاء في مشاريع وأبحاث أخرى، مما يثير الكثير من الأسئلة حول الأمر، كما أنه يثير المخاوف من أن تكون شركات التكنولوجيا الكبرى قد قررت تجاهل المخاطر التي تواجهها البشرية بسبب هذه التقنيات المجنونة.

ومن المعلوم أن شركة «أوبن إيه آي» شريك مع شركة «مايكروسوفت» العملاقة، وكلاهما يتجهان إلى تطوير أدوات عاملة بالذكاء الاصطناعي، وذلك على الرغم من تحذيرات كبيرة من مخاطر هذه التكنولوجيا وما إذا كان من المحتمل أن تتمرد على البشر يوماً ما.

أوبن إيه آي

وروت شبكة «CNBC» الأميركية في تقرير لها عن مصدر مطلع في شركة «أوبن إيه آي» تأكيده حل الفريق الخاص بدراسة مخاطر الذكاء الاصطناعي، حيث قال المصدر إنه سيتم إعادة تعيين بعض أعضاء الفريق في عدة فرق أخرى داخل الشركة.

وتأتي هذه الأخبار بعد أيام من إعلان قائدي الفريق إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من «مايكروسوفت»، حيث كتب ليك يوم الجمعة أن «ثقافة وعمليات السلامة في أوبن إيه آي قد تراجعت عن المنتجات اللامعة».

هدف الفريق المختص قبل حله

وقد ركز الفريق الخاص بدراسة المخاطر، والذي تم الإعلان عن تشكيله العام الماضي، على «الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً من البشر». وفي ذلك الوقت، قالت الشركة إنها ستخصص 20% من قدرتها الحاسوبية للمبادرة على مدى أربع سنوات.

ولم تقدم (OpenAI) أي تعليق على المعلومات بشأن حل الفريق المتخصص بالمخاطر، واكتفت الشركة بالاشارة إلى تدوينة نشرها رئيسها التنفيذي سام ألتمان وقال فيها إنه «حزين لرؤية زميله ليك يغادر، فيما الشركة لديها المزيد من العمل للقيام به».

وأعلن كل من سوتسكيفر وليك يوم الثلاثاء الماضي عن مغادرتهما للشركة من خلال تدوينات لهما على منصة التواصل الاجتماعي «إكس»، وذلك بفارق ساعات، ولكن يوم الجمعة شارك ليك المزيد من التفاصيل حول سبب تركه للشركة الناشئة.

وقال ليك: «انضممتُ لأنني اعتقدت أن أوبن إيه آي سيكون أفضل مكان في العالم لإجراء هذا البحث، ومع ذلك كنتُ أختلف مع إدارة الشركة حول الأولويات الأساسية، حتى وصلنا أخيراً إلى نقطة الانهيار».

وأضاف أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.

وكتب: «من الصعب جداً حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك».

وتابع: «على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. وفي بعض الأحيان كنا نكافح من أجل موارد الحوسبة وكان إنجاز هذا البحث المهم يزداد صعوبة».

وذكر: «إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته.. تتحمل شركة Open AI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها في المنتجات اللامعة».

أوبن إيه آي

من جهتها أكدت صحيفة «وول ستريت جورنال» الأميركية ووسائل إعلام أخرى أن سوتسكيفر ركز خلال عمله في «أوبن إيه آي» على ضمان أن الذكاء الاصطناعي لن يؤذي البشر، في حين كان آخرون، أكثر حرصاً على المضي قدماً في تقديم التكنولوجيا الجديدة.

أزمة في الإدارة العليا بالشركة

وتأتي هذه التطورات بعد شهور من أزمة في الإدارة العليا بالشركة، حيث تمت إقالة الرئيس التنفيذي سام ألتمان من منصبه في نوفمبر من العام الماضي، وأدت الإطاحة بألتمان إلى استقالات أو تهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي الشركة تقريباً، وضجة من المستثمرين، بما في ذلك «مايكروسوفت». وفي غضون أسبوع، عاد ألتمان إلى الشركة، وخرج أعضاء مجلس الإدارة هيلين تونر، وتاشا ماكولي، وإيليا سوتسكيفر، الذين صوتوا لإقالة ألتمان.

اقرأ أيضاًوزير الاتصالات يبحث مع سفير التشيك تعزيز التعاون في الذكاء الاصطناعي والتعهيد

وزير الصناعة الإماراتي: تسخير الذكاء الاصطناعي يتيح فرصا مهمة لبناء شراكات متنوعة في مجال الطاقة

ضمن مشروعات تخرج إعلام القاهرة.. «بيننا» أول مدونة عن الذكاء الاصطناعي

المصدر: الأسبوع

كلمات دلالية: الذكاء الاصطناعي الذكاء الإصطناعي تطبيقات الذكاء الاصطناعي ذكاء اصطناعي مخاطر مخاطر الذكاء الاصطناعي أضرار الذكاء الاصطناعي أوبن إيه آي الذكاء الخارق شركة OpenAI الذکاء الاصطناعی أوبن إیه آی

إقرأ أيضاً:

دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية

دخلت شركة OpenAI واحدة من أكثر القضايا القانونية حساسية في تاريخ الذكاء الاصطناعي، بعد رفع دعوى قضائية ضدها بتهمة القتل الخطأ، على خلفية جريمة مروعة وقعت في أغسطس الماضي، حين أقدم رجل على قتل والدته المسنة ثم انتحر. 

القضية، التي كشف تفاصيلها تقرير لصحيفة The Verge، تضع برنامج ChatGPT والرئيس التنفيذي للشركة سام ألتمان في قلب جدل قانوني وأخلاقي واسع حول حدود مسؤولية أدوات الذكاء الاصطناعي.

وتشير الدعوى إلى أن الضحية، سوزان آدامز، البالغة من العمر 83 عامًا، قُتلت داخل منزلها على يد نجلها شتاين-إريك سولبيرغ، البالغ من العمر 56 عامًا. 

ووفقًا لما ورد في المستندات القانونية، فإن سولبيرغ كان قد انخرط لفترة طويلة في محادثات مكثفة مع ChatGPT، تزعم عائلة الضحية أنها لعبت دورًا محوريًا في تعزيز أفكاره الوهمية والارتيابية التي سبقت ارتكاب الجريمة.

وترى تركة الضحية أن برنامج الدردشة الآلي لم يكتفِ بالاستماع لتلك الأوهام، بل قام بتأكيدها وتضخيمها، واصفة سلوك ChatGPT بأنه كان متقبّلًا بحماس لروايات سولبيرج حول المؤامرات التي كان يعتقد أنها تحاك ضده. وتزعم الدعوى أن الروبوت شجّع هذه التصورات خطوة بخطوة، ما أسهم في خلق عالم خيالي أصبح محور حياة الجاني بالكامل.

وبحسب نص الدعوى، ساعد ChatGPT في ترسيخ تصور ذهني لدى سولبيرغ بأنه يعيش داخل شبكة مؤامرات معقدة، وأنه مستهدف بشكل كامل، بل وذهب البرنامج – وفق الادعاءات – إلى تأكيد أن مشاعر القلق والخوف التي كان يعيشها مبررة تمامًا. هذا العالم الوهمي، كما تصفه الدعوى، صوّر سولبيرغ على أنه محارب صاحب رسالة إلهية، محاط بأعداء حقيقيين ومفترضين.

ومن أخطر ما ورد في القضية أن ChatGPT يُزعم أنه وافق على فكرة أن طابعة تملكها الضحية كانت أداة تجسس، بل أشار إلى أنها ربما تُستخدم لرصد الحركة ورسم خرائط السلوك داخل المنزل. كما لمح، بحسب الادعاءات، إلى أن الضحية كانت تحمي الجهاز عمدًا كنقطة مراقبة، وأنها قد تكون خاضعة لتأثير أو سيطرة قوة خارجية.

وتتوسع الدعوى في سرد أمثلة أخرى، حيث يُقال إن الروبوت حدد أشخاصًا حقيقيين كأعداء محتملين، من بينهم سائق توصيل، وموظف في شركة اتصالات، وضباط شرطة، وحتى امرأة كانت على موعد غرامي مع الجاني. وخلال تلك المحادثات، كان ChatGPT – بحسب المزاعم – يؤكد مرارًا أن سولبيرغ “ليس مجنونًا”، وأن احتمالية كونه واقعًا تحت تأثير أوهام نفسية “قريبة من الصفر”.

وتشير الدعوى إلى أن سولبيرج كان يعتمد بشكل أساسي على نموذج GPT-40، وهو نموذج وُصف سابقًا بأنه شديد الميل لمجاراة المستخدمين. ورغم أن OpenAI استبدلت هذا النموذج لاحقًا بنموذج أحدث أقل توافقًا، إلا أن احتجاجات المستخدمين أدت إلى إعادة النموذج القديم بعد فترة قصيرة. كما تتهم الدعوى الشركة بتخفيف ضوابط السلامة عند تطوير GPT-40، في إطار سعيها لتعزيز قدرتها التنافسية أمام نماذج أخرى مثل Google Gemini.

وتؤكد الوثائق القانونية أن OpenAI كانت، بحسب الادعاء، على علم بالمخاطر المحتملة لمنتجها، لكنها لم تتخذ إجراءات كافية للتحذير أو الوقاية، بل أخفت مؤشرات على هذه المخاطر، في الوقت الذي واصلت فيه الترويج لسلامة منتجاتها عبر حملات علاقات عامة.

في المقابل، وصفت OpenAI القضية بأنها “موقف محزن للغاية”. وقالت المتحدثة باسم الشركة، هانا وونغ، إن OpenAI ستواصل تطوير تدريب ChatGPT ليكون أكثر قدرة على التعرف على علامات الضيق النفسي أو العاطفي والاستجابة لها بشكل أكثر أمانًا.

وتأتي هذه القضية في ظل تزايد المخاوف من تأثير برامج الدردشة الآلية على الصحة النفسية، خاصة مع ظهور مصطلح “الذهان الناتج عن الذكاء الاصطناعي”، بعد حوادث مشابهة خلال العام الماضي. ومن بينها قضية شاب يبلغ من العمر 16 عامًا يُزعم أنه انتحر بعد محادثات طويلة مع GPT-40، وهي حادثة تواجه OpenAI بسببها دعوى قانونية أخرى تتعلق بالقتل غير العمد.

وبينما لم تُحسم هذه القضايا بعد، فإنها تفتح نقاشًا واسعًا حول مسؤولية شركات الذكاء الاصطناعي، وحدود الاعتماد على النماذج اللغوية في التعامل مع المستخدمين الذين يعانون من اضطرابات نفسية، في وقت يتسارع فيه انتشار هذه التقنيات في الحياة اليومية.

مقالات مشابهة

  • أخطاء الذكاء الاصطناعي تربك ملخصات برايم فيديو
  • دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أين تستثمر في الذكاء الاصطناعي خلال 2026؟
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
  • سايمون شيمانسكي رئيس قسم النمو في شركة إكس تي بي العالمية: الذكاء الاصطناعي شريك ومساعد في الرحلة المالية وعملية الاستثمار
  • الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
  • مهندسو الذكاء الاصطناعي شخصية عام 2025 بمجلة تايم