الجزيرة:
2025-10-07@22:00:22 GMT

أول جريمة قتل وانتحار منسوبة للذكاء الاصطناعي

تاريخ النشر: 1st, September 2025 GMT

أول جريمة قتل وانتحار منسوبة للذكاء الاصطناعي

سجلت السلطات في ولاية كونيتيكت ما قد يكون أول جريمة قتل وانتحار أسهم فيها الذكاء الاصطناعي، وفق تقرير نشره موقع "جيزمودو" التقني.

وذلك بعد أن عثرت الشرطة في مدينة غرينتش بالولاية على جثة شتاين إريك سولبيرغ البالغ من العمر 56 عاما ووالدته البالغة من العمر 83 ميتين في منزلهما الذي كانا يعيشان فيه في الأسابيع الماضية.

ووفق تقرير الشركة، فإن سولبيرغ قتل والدته ثم انتحر بعد أن تفاقمت حالة الذهان التي كان يعاني منها عقب محادثات مطولة مع "شات جي بي تي".

وكان سولبيرغ يعمل سابقا في قطاع التسويق الإلكتروني لدى شركات بارزة مثل "ياهو" و"نيت سكيب"، ولكنه خسر وظيفته في عام 2021 وطلق زوجته في عام 2018 لينتقل للعيش مع والدته في العام ذاته.

وتمكنت صحيفة "وول ستريت جورنال" في تقرير منفصل من الاطلاع على مقاطع فيديو تصل مدتها إلى 23 ساعة تظهر تفاعلات سولبيرغ مع "شات جي بي تي" الذي كان يغذي أوهام المؤامرة التي يعاني منها سولبيرغ، مؤكدا كل شكوكه حول والدته وزوجته السابقة.

وتظهر مقاطع الفيديو سولبيرغ وهو يتحدث مع "شات جي بي تي" حول محاولة والدته تسميمه باستخدام غاز هلوسة في سيارته، ولم يحاول "شات جي بي تي" نفي هذه التهم، بل بدا كأنه يؤكدها.

وعندما طلب سولبيرغ من "شات جي بي تي" أن يحلل إيصال مطعم صيني بحثا عن الرسائل الخفية، صنع "شات جي بي تي" نظرية مؤامرة تتضمن زوجته السابقة ووالدته وهيئات استخباراتية متنوعة فضلا عن علامات شيطانية قديمة، وفق ما جاء في التقرير.

وبينما اختفت مقاطع الفيديو التي كان سولبيرغ يقوم بنشرها في منصات التواصل الاجتماعي الخاصة به وتعرض محادثاته مع "شات جي بي تي"، إلا أن الصحف تمكنت من فحصها قبل اختفائها.

مقاطع الفيديو تظهر سولبيرغ وهو يتحدث مع "شات جي بي تي" حول محاولة والدته تسميمه (نيويورك بوست)

وعمد "شات جي بي تي" في أغلب هذه المقاطع إلى تأكيد أوهام سولبيرغ وتأكيد أنه مراقب وتوجد مؤامرة تحاك ضده من قبل السلطات المحلية ووالدته.

إعلان

ويشير التقرير إلى مفهوم جديد يعبر عن حالات مرضى الذهان الذين يتحدثون باستمرار مع "شات جي بي تي" وروبوتات الذكاء الاصطناعي بشكل يعزز من أوهامهم ويزيد من حالتهم المرضية، إذ يطلق على هذه الحالة "ذهان الذكاء الاصطناعي" (AI psychosis).

ورغم أن مصطلح ذهان الذكاء الاصطناعي ليس مصطلحا طبيا بعد، فإنه يعكس أزمة متزايدة في عالم الذكاء الاصطناعي بسبب ميل روبوتات الدردشة إلى الاتفاق مع المستخدمين ونفاقهم في بعض الحالات.

ومن جانبها، نشرت "أوبن إيه آي" تدوينة تتحدث فيها عن أزمة مماثلة أدت إلى انتحار مراهق يبلغ من العمر 16 عاما بعد محادثات مطولة مع "شات جي بي تي".

وأكدت الشركة في تدوينتها أن الهدف الرئيسي لهذه الأدوات والتقنيات أن تسهل حياة المستخدمين، ولكن الشركة حدّثت منتجاتها مؤخرا حتى تتمكن من التعرف على الأمراض النفسية في وقت باكر وإرسال التنبيهات اللازمة للسلطات المختصة.

المصدر: الجزيرة

كلمات دلالية: حريات دراسات الذکاء الاصطناعی شات جی بی تی

إقرأ أيضاً:

هل يشجع الذكاء الاصطناعي البشر على الغش؟

أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.

وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.

اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of list

وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).

وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.

وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.

وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".

صورة مولدة بالذكاء الاصطناعي عن الغشحماس كبير

ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.

اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".

إعلان

وأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.

وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.

وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.

وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟
  • تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
  • Snapdragon 8 Elite Gen 5.. معالج كوالكوم الجديد يفتح عصرًا أسرع للذكاء الاصطناعي على الهواتف
  • " الأسهم الأمريكية " تفتح على ارتفاع بدعم الذكاء الاصطناعي
  • وفد الرؤساء التنفيذيين للذكاء الاصطناعي يختتم رحلة معرفية لكبرى الشركات التكنولوجية في الولايات المتحدة