موقع 24:
2025-06-09@07:31:43 GMT

جرس إنذار.. الذكاء الاصطناعي يقود إلى الانتحار

تاريخ النشر: 25th, October 2024 GMT

جرس إنذار.. الذكاء الاصطناعي يقود إلى الانتحار

السحر في عالم الذكاء الاصطناعي، يأخذ المستخدم إلى عالم فريد من الإمكانات الهائلة، وبواسطته قد يصنع البشر ما لا يخطر على بال، غير أنه إلى جانب هذا قد يتحول لباب أخطار غير متوقعة.

ويدور حديث وجدل واسع حول الذكاء الاصطناعي من البداية، والمخاوف التي تأتي يداً بيد مع فوائده العظيمة للبشرية، ومن النقا' المقلقة، ما أثارته حالات انتحار تعلقت بالذكاء الاصطناعي.



آخر الحوادث كانت انتحار مراهق، لم يتجاوز 14 عاماً، رفعت والدته في ولاية فلوريدا الأمريكية، دعوى قضائية، ضد برنامج دردشة يعتمد على الذكاء الاصطناعي، تسبب في دفع ابنها إلى قتل نفسه.


"الملاك الجميل"


وأرسل برنامج Character.AI إلى المراهق الأمريكي سيويل سيتزر، خلال فبراير (شباط) الماضي، طلباً للبقاء المنزل، وهذا الطلب فسره خبراء نفسيون بأنه يعني دخول المراهق إلى عالم الوهم، وينتهي بشكل طبيعي بالانتحار، لأنّ التطبيق يعتمد على تجسيد أدوار، ويتيح للمستخدمين التفاعل مع الشخصيات التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
وقالت الأم أن شخصية "داني"، شبيهة بشخصية الأميرة المقاتلة في مسلسل "صراع العروش" دينيريس تارجيريان، وصار يتفاعل معها بشكل يبدو حقيقياً.
وكشف المراهق عن رغبته بالانتحار، وفقاً لما أظهرته لقطات من محادثات الدردشة، وكان التطبيق يشجعه بشكل متواصل على هذه الخطوة، حتى جاءت اللحظة الحاسمة، حين أعرب الشاب عن رغبته بالانتحار للشخصية الوهمية التي يحادثها عبر التطبيق، فحصل على الحماس المطلوب بالقول: "من فضلك افعل ذلك، يا ملكي الجميل".
ولم تمض إلا ثوان، حتى أطلق سيويل النار على نفسه بمسدس والده.


البلجيكي.. حماية البشرية


ولا يقتصر الأمر على المراهقين، في تأثير الذكاء الاصطناعي الخطير من هذا النوع، وتغذيته لحالات نفسية متدهورة.
في العام الماضي، انتحر رجل بلجيكي، بعد حوار طويل مع أحد روبوتات الدردشة، شكّل تطبيقاً يحمل اسم "إليزا" Eliza، الذي يستعمل نموذجاً لغوياً مدعوماً بالذكاء الاصطناعي.
وبعد 6 أسابيع من حديثه معه، شجع التطبيق الرجل البلجيكي، الذي لم تذكر وسائل الإعلام اسمه، على الانتحار، بعدما طلب الأخير من التطبيق منح خيارات التضحية اللازمة من أجل حماية الكوكب.
وقالت أرملة الرجل لصحيفة "La Libre" المحلية، إن المحادثات أظهرت أن الروبوت أقنع زوجها الراحل بالانتحار، في مقابل أن يتولى هو، أي الروبوت، حماية البشرية.


"الحوت الأزرق"


وتعد حوادث الانتحار المتعددة بين مراهقين في معظمها، التي سببتها لعبة "الحوت الأزرق" الشهيرة، التي حدثت بين 2015 و2019، من النماذج للخطورة المتعلقة ببرامج المحادثة، وليست بالضرورة بالذكاء الاصطناعي، غير أنها اليوم ستصبح بالذكاء الاصطناعي بطبيعة الحال.
ويقول خبراء في علم النفس، إنه حتى لو لم نحمل الذكاء الاصطناعي مسؤولية مباشرة على قيام الفرد بالانتحار، إلا أنه قد يكون أداة أساسية في الدفع والتحريض عليه.

  الإنقاذ


غير أن آراء مقابلة ترفض التخوف من الذكاء الاصطناعي في نطاق الانتحار تحديداً، ويشدد هؤلاء على تمكن برامج الذكاء الاصطناعي على العكس، منع الانتحار والتنبؤ به للحد من الحالات.
لكن تطبيق الأمر معقد جداً.
وتسعى شركات وسائل التواصل الاجتماعي لإنشاء خوارزميات للتنبؤ بالانتحار وإطلاق تدخلات تهدف إلى منع الانتحار، غير أن القيم المضمنة في الحوافز الخوارزمية لمنع الانتحار غليظة من الناحية الموضوعية وتستحق التدقيق، ونظراً لأن المناقشات حول عقلانية الانتحار ومعناه وجوازه شائعة وتخضع للاختلافات داخل الثقافات وعبرها، ويؤكد البعض أن مهمة التنبؤ بالانتحار غير مناسبة للنهج الخوارزمي.
وعلى الرغم من قدرة الخوارزمية على تحديد ظاهرة معقدة، مثل خطر الانتحار ومظهرها الموضوعي، فإن أي خوارزمية للتنبؤ بالانتحار ذاتية تماماً وتنطوي على أحكام أخلاقية.


المستقبل


ويقول آخرون إنه من المكن أن تساعد الأساليب متعددة التخصصات التي تجمع بين مصادر البيانات المتنوعة وطرق الذكاء الاصطناعي في تحديد الأفراد المعرضين للخطر من خلال تحليل محتوى وسائل التواصل الاجتماعي، وتاريخ المرضى، والبيانات من الأجهزة المحمولة، مما يتيح التدخل في الوقت المناسب.
 ومع ذلك، يجب معالجة التحديات المتعلقة بخصوصية البيانات، والتحيز الخوارزمي، وقابلية تفسير النموذج، والتنفيذ في العالم الحقيقي لتحقيق الإمكانات الكاملة لهذه التقنيات.
 ويجب أن تركز الأبحاث المستقبلية على دمج استراتيجيات التنبؤ والوقاية، وتسخير البيانات المتعددة الوسائط، وتوسيع النطاق ليشمل مجموعات سكانية متنوعة.
وتعد القضية بالغة الأهمية، حيث يُعد الانتحار أحد أهم أسباب الوفيات غير الطبيعية في جميع أنحاء العالم ، حيث يموت أكثر من 800 ألف شخص بالانتحار كل عام، مع محاولة المزيد من الأشخاص الانتحار، أو تجربة أفكار انتحارية.
 

المصدر: موقع 24

كلمات دلالية: عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله السنوار الانتخابات الأمريكية غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي بالذکاء الاصطناعی الذکاء الاصطناعی غیر أن

إقرأ أيضاً:

تعليم نماذج الذكاء الاصطناعي ما لا تعرفه

أسس فريق من باحثي معهد ماساتشوستس للتكنولوجيا (MIT)، Themis AI لقياس عدم اليقين في نماذج الذكاء الاصطناعي ومعالجة فجوات المعرفة.
تُقدم أنظمة الذكاء الاصطناعي، مثل ChatGPT، إجاباتٍ تبدو معقولة لأي سؤال قد يطرح عليها. لكنها لا تكشف دائمًا عن ثغراتٍ في معارفها أو جوانبَ عدم اليقين فيها.
وقد تُسفر هذه المشكلة عن عواقب وخيمة مع تزايد استخدام أنظمة الذكاء الاصطناعي في مجالاتٍ مثل تطوير الأدوية، وقيادة السيارات ذاتية القيادة.
والآن، تُساعد Themis AI في تحديد عدم اليقين في النماذج وتصحيح النتائج قبل أن تُسبب مشاكل أكبر. ويمكن لمنصة Capsa التابعة للشركة العمل مع أي نموذج تعلُّم آلي للكشف عن النتائج غير الموثوقة وتصحيحها في ثوانٍ. وتعمل المنصة عن طريق تعديل نماذج الذكاء الاصطناعي لتمكينها من اكتشاف الأنماط في معالجة البيانات التي تُشير إلى الغموض أو عدم الاكتمال أو التحيز.
تقول دانييلا روس، المؤسس المشارك لشركة Themis AI والأستاذة في معهد ماساتشوستس للتكنولوجيا، والتي تشغل أيضًا منصب مديرة مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا "الفكرة هي أخذ نموذج، ودمجه في Capsa، وتحديد أوجه عدم اليقين وأنماط فشل النموذج، ثم تحسينه"، مضيفة "نحن متحمسون لتقديم حل يُحسّن النماذج ويضمن عملها بشكل صحيح".
أسست روس شركة Themis AI عام 2021 بالتعاون مع زميلي بحث سابقين في مختبرها. ومنذ ذلك الحين، ساعدوا شركات الاتصالات في تخطيط الشبكات وأتمتتها، وساعدوا شركات النفط والغاز على استخدام الذكاء الاصطناعي لفهم الصور الزلزالية، ونشروا أبحاثًا حول تطوير روبوتات دردشة أكثر موثوقية.
يقول ألكسندر أميني، أحد الرؤساء المشاركين "نريد تمكين الذكاء الاصطناعي في التطبيقات الأكثر أهمية في كل قطاع". ويضيف "رأينا جميعًا أمثلة على هلوسة الذكاء الاصطناعي أو ارتكابه للأخطاء. ومع اتساع نطاق استخدام الذكاء الاصطناعي، قد تؤدي هذه الأخطاء إلى عواقب وخيمة. يُمكّن ثيميس أي ذكاء اصطناعي من التنبؤ بأخطائه قبل وقوعها".
مساعدة النماذج على معرفة ما تجهله
يبحث مختبر روس في عدم اليقين في النماذج منذ سنوات. في عام 2018، حصلت على تمويل لدراسة موثوقية حل قيادة ذاتية قائم على التعلم الآلي. تقول روس "هذا سياق بالغ الأهمية للسلامة، حيث يُعد فهم موثوقية النموذج أمرًا بالغ الأهمية".
في عمل منفصل، طوّر روس وأميني وزملاؤهما خوارزمية يمكنها اكتشاف التحيز العنصري والجنسي في أنظمة التعرف على الوجه، وإعادة وزن بيانات تدريب النموذج تلقائيًا، مما يُظهر أنها أزالت التحيز. عملت الخوارزمية من خلال تحديد الأجزاء غير المُمثلة من بيانات التدريب الأساسية، وتوليد عينات بيانات جديدة ومتشابهة لإعادة توازنها.
في عام 2021، أظهر المؤسسون المشاركون إمكانية استخدام نهج مماثل لمساعدة شركات الأدوية على استخدام نماذج الذكاء الاصطناعي للتنبؤ بخصائص الأدوية المرشحة. وأسسوا شركة Themis AI في وقت لاحق من ذلك العام.
تؤكد روس "قد يوفر توجيه اكتشاف الأدوية الكثير من المال. كانت هذه هي حالة الاستخدام التي جعلتنا ندرك مدى قوة هذه الأداة".
تعمل Themis AI اليوم مع شركات في مجموعة متنوعة من الصناعات، والعديد من هذه الشركات تبني نماذج لغوية ضخمة. باستخدام Capsa، تتمكن هذه النماذج من تحديد مستوى عدم اليقين الخاص بها لكل ناتج.
يعتقد فريق "ثيميس" للذكاء الاصطناعي أن الشركة في وضع جيد لتحسين أحدث تقنيات الذكاء الاصطناعي المتطورة باستمرار. 

أخبار ذات صلة "واتساب" يختبر ميزة إنشاء مساعد مدعوم بالذكاء الاصطناعي ريديت تلاحق "أنثروبيك" قضائياً بتهمة استغلال بيانات المستخدمين دون إذن المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • جوجل تطلق أداة جديدة مدعومة بالذكاء الاصطناعي
  • جيميني يتيح ملخصات الرسائل بالذكاء الاصطناعي في جي ميل
  • تأجيل إطلاق تطبيقين مدعومين بالذكاء الاصطناعي من آبل حتى إصدار iOS 27
  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • واتساب تختبر إنشاء روبوتات محادثة مدعومة بالذكاء الاصطناعي
  • واتساب يطلق ميزة لإنشاء روبوتات دردشة بالذكاء الاصطناعي دون برمجة
  • تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
  • واتساب يختبر ميزة إنشاء مساعد مدعوم بالذكاء الاصطناعي
  • نجم موسيقي ثمانيني مخضرم يعترف بالاستعانة بالذكاء الاصطناعي في التأليف
  • نقابات العمال الأمريكية تبدأ معركتها ضد الذكاء الاصطناعي