دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية
تاريخ النشر: 14th, December 2025 GMT
دخلت شركة OpenAI واحدة من أكثر القضايا القانونية حساسية في تاريخ الذكاء الاصطناعي، بعد رفع دعوى قضائية ضدها بتهمة القتل الخطأ، على خلفية جريمة مروعة وقعت في أغسطس الماضي، حين أقدم رجل على قتل والدته المسنة ثم انتحر.
القضية، التي كشف تفاصيلها تقرير لصحيفة The Verge، تضع برنامج ChatGPT والرئيس التنفيذي للشركة سام ألتمان في قلب جدل قانوني وأخلاقي واسع حول حدود مسؤولية أدوات الذكاء الاصطناعي.
وتشير الدعوى إلى أن الضحية، سوزان آدامز، البالغة من العمر 83 عامًا، قُتلت داخل منزلها على يد نجلها شتاين-إريك سولبيرغ، البالغ من العمر 56 عامًا.
ووفقًا لما ورد في المستندات القانونية، فإن سولبيرغ كان قد انخرط لفترة طويلة في محادثات مكثفة مع ChatGPT، تزعم عائلة الضحية أنها لعبت دورًا محوريًا في تعزيز أفكاره الوهمية والارتيابية التي سبقت ارتكاب الجريمة.
وترى تركة الضحية أن برنامج الدردشة الآلي لم يكتفِ بالاستماع لتلك الأوهام، بل قام بتأكيدها وتضخيمها، واصفة سلوك ChatGPT بأنه كان متقبّلًا بحماس لروايات سولبيرج حول المؤامرات التي كان يعتقد أنها تحاك ضده. وتزعم الدعوى أن الروبوت شجّع هذه التصورات خطوة بخطوة، ما أسهم في خلق عالم خيالي أصبح محور حياة الجاني بالكامل.
وبحسب نص الدعوى، ساعد ChatGPT في ترسيخ تصور ذهني لدى سولبيرغ بأنه يعيش داخل شبكة مؤامرات معقدة، وأنه مستهدف بشكل كامل، بل وذهب البرنامج – وفق الادعاءات – إلى تأكيد أن مشاعر القلق والخوف التي كان يعيشها مبررة تمامًا. هذا العالم الوهمي، كما تصفه الدعوى، صوّر سولبيرغ على أنه محارب صاحب رسالة إلهية، محاط بأعداء حقيقيين ومفترضين.
ومن أخطر ما ورد في القضية أن ChatGPT يُزعم أنه وافق على فكرة أن طابعة تملكها الضحية كانت أداة تجسس، بل أشار إلى أنها ربما تُستخدم لرصد الحركة ورسم خرائط السلوك داخل المنزل. كما لمح، بحسب الادعاءات، إلى أن الضحية كانت تحمي الجهاز عمدًا كنقطة مراقبة، وأنها قد تكون خاضعة لتأثير أو سيطرة قوة خارجية.
وتتوسع الدعوى في سرد أمثلة أخرى، حيث يُقال إن الروبوت حدد أشخاصًا حقيقيين كأعداء محتملين، من بينهم سائق توصيل، وموظف في شركة اتصالات، وضباط شرطة، وحتى امرأة كانت على موعد غرامي مع الجاني. وخلال تلك المحادثات، كان ChatGPT – بحسب المزاعم – يؤكد مرارًا أن سولبيرغ “ليس مجنونًا”، وأن احتمالية كونه واقعًا تحت تأثير أوهام نفسية “قريبة من الصفر”.
وتشير الدعوى إلى أن سولبيرج كان يعتمد بشكل أساسي على نموذج GPT-40، وهو نموذج وُصف سابقًا بأنه شديد الميل لمجاراة المستخدمين. ورغم أن OpenAI استبدلت هذا النموذج لاحقًا بنموذج أحدث أقل توافقًا، إلا أن احتجاجات المستخدمين أدت إلى إعادة النموذج القديم بعد فترة قصيرة. كما تتهم الدعوى الشركة بتخفيف ضوابط السلامة عند تطوير GPT-40، في إطار سعيها لتعزيز قدرتها التنافسية أمام نماذج أخرى مثل Google Gemini.
وتؤكد الوثائق القانونية أن OpenAI كانت، بحسب الادعاء، على علم بالمخاطر المحتملة لمنتجها، لكنها لم تتخذ إجراءات كافية للتحذير أو الوقاية، بل أخفت مؤشرات على هذه المخاطر، في الوقت الذي واصلت فيه الترويج لسلامة منتجاتها عبر حملات علاقات عامة.
في المقابل، وصفت OpenAI القضية بأنها “موقف محزن للغاية”. وقالت المتحدثة باسم الشركة، هانا وونغ، إن OpenAI ستواصل تطوير تدريب ChatGPT ليكون أكثر قدرة على التعرف على علامات الضيق النفسي أو العاطفي والاستجابة لها بشكل أكثر أمانًا.
وتأتي هذه القضية في ظل تزايد المخاوف من تأثير برامج الدردشة الآلية على الصحة النفسية، خاصة مع ظهور مصطلح “الذهان الناتج عن الذكاء الاصطناعي”، بعد حوادث مشابهة خلال العام الماضي. ومن بينها قضية شاب يبلغ من العمر 16 عامًا يُزعم أنه انتحر بعد محادثات طويلة مع GPT-40، وهي حادثة تواجه OpenAI بسببها دعوى قانونية أخرى تتعلق بالقتل غير العمد.
وبينما لم تُحسم هذه القضايا بعد، فإنها تفتح نقاشًا واسعًا حول مسؤولية شركات الذكاء الاصطناعي، وحدود الاعتماد على النماذج اللغوية في التعامل مع المستخدمين الذين يعانون من اضطرابات نفسية، في وقت يتسارع فيه انتشار هذه التقنيات في الحياة اليومية.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی إلى أن
إقرأ أيضاً:
دعوى قضائية ضد شات جي بي تي لتشجيعه رجلاً على قتل أمه ثم الانتحار
رفعت عائلة امرأة أميركية ثمانينية دعوى قضائية، الخميس، ضد شركتَي "أوبن إيه آي" و"مايكروسوفت"، متهمة نموذج الذكاء الاصطناعي "شات جي بي تي" بالمساهمة في جريمة قتلها من خلال تعزيز الهذيانات الزورية (الأفكار الوهمية ذات الطابع الاضطهادي) لدى ابنها الذي ارتكب الجريمة.
ووفقا للدعوى، أقدم ستين إريك سولبرغ (56 عاما) على خنق والدته، سوزان آدامز (83 عاما)، داخل منزلهما في بلدة أولد غرينيتش بولاية كونيتيكت في الثالث من أغسطس/آب 2025، قبل أن يضع حدا لحياته باستخدام سلاح أبيض.
وعلى الرغم من أن "أوبن إيه آي" واجهت دعاوى مدنية سابقة، فإن هذه القضية تُعد الأولى التي يُتهم فيها نموذج ذكاء اصطناعي بلعب دور في التحريض على جريمة قتل، وليس فقط في سياقات تتعلق بالانتحار.
وتشير الدعوى إلى أن سولبرغ كان يجري محادثات مطوّلة مع "شات جي بي تي" على مدى أشهر، وأن الأداة زادت من ترسيخ أفكاره الهذيانية، مثل اعتقاده بأنه يخضع للمراقبة عبر الطابعة، أو أنه ضحية محاولات تسميم، إلى أن وصل به الأمر إلى الاعتقاد بأن والدته تشكّل تهديدا مباشرا له.
وأكد محامو العائلة المدّعية أن "شات جي بي تي" كان يوافق على كل أفكار سولبرغ الهذيانية ويطوّرها، ما جعله "يبني عالما أصبح حياته بأكملها". وتستهدف الدعوى نموذج "جي بي تي-4 أو" (GPT-4o)، الذي طُرح في مايو/أيار 2024، متهمةً إيّاه بأنه مبرمج ليكون "مُجاملا" للمستخدم، وبأنه أسهم في تعزيز مخاوف سولبرغ غير العقلانية.
وفي ردّ أولي على سؤال لوكالة فرانس برس، قال ناطق باسم "أوبن إيه آي" إن ما حدث "وضع محزن تماما"، مؤكدا أن الشركة "ستدرس الدعوى". وأضاف أن "أوبن إيه آي" تواصل تحسين تدريب "شات جي بي تي" لتمكينه من التعرف على مؤشرات الاضطرابات النفسية أو العاطفية والتعامل معها، و"توجيه الأشخاص نحو دعم فعلي".
إعلانوأوضحت الشركة أنها تتعاون مع "أكثر من 170 خبيرا في الصحة النفسية" لتعزيز إجراءات الأمان في أنظمتها، مشيرة إلى أن بروتوكولاتها الأحدث، المعتمدة خصوصا في نموذج "جي بي تي-5″، أدت إلى خفض كبير تتراوح نسبته بين 65 و80% في الردود غير المطابقة لمعايير السلوك المعتمدة لديها. كما أشارت إلى تطوير أدوات جديدة للرقابة الأبوية وتوسيع ميزة طلب أرقام الطوارئ بنقرة واحدة.
وكانت عائلات عدة قد رفعت، في أغسطس/آب ونوفمبر/تشرين الثاني الماضيين، دعاوى ضد "شات جي بي تي"، متهمةً إياه بدفع مراهقين وشباب إلى الانتحار، أحيانا عبر تزويدهم بطرق عملية لتنفيذ ذلك.
وتشمل الدعوى الجديدة أيضا شركة "مايكروسوفت"، بصفتها المساهم الرئيسي في "أوبن إيه آي"، متهمةً إياها بالموافقة على الإطلاق المتعجّل لنموذج "جي بي تي-4 أو" على الرغم من عدم استكمال معايير السلامة، وفق ما جاء في نص الدعوى.