#سواليف

حذر #مختصون من تداعيات خطيرة على #البشر، نتيجة #المحادثات التي تُمكنها أدوات #الذكاء_الاصطناعي، مع الأصدقاء والأقرباء والأحباب #المتوفين، وذلك بشكل افتراضي.

وذكر موقع “Theconversation” أنه باستخدام الذكاء الاصطناعي يمكن إعادة إنشاء أصدقائك وأقاربك وأحبابك المتوفين، حتى يتم إجراء محادثات معهم، ومعرفة ما يشعرون به، لكن لذلك تداعيات خطيرة على #الصحة_العقلية للبشر، ويمكن أن يتسبب في تهديد #حياة_الإنسان.

وأضاف الموقع أن “إعادة الإنشاء الافتراضي لشخص عزيز متوفى قد تبدو معجزة، لكنها #مخيفة بعض الشيء، ولها تداعيات على صحة الإنسان، لأن أشباح الذكاء الاصطناعي، قد تكون عائقا أمام عملية الحزن”.

مقالات ذات صلة تطوير قفاز يساعد على استعادة المهارات الحركية بعد السكتة الدماغية 2024/03/18

وقال الأستاذ المساعد في العلاج النفسي بجامعة مدين دبلن نايجل موليجان: “باعتباري معالجا نفسيا يبحث في كيفية استخدام تكنولوجيا الذكاء الاصطناعي لتعزيز التدخلات العلاجية، فإن ظهور الروبوتات الشبحية يثير اهتمامي”.

الصحة العقلية
واستدرك قائلا: “لكنني أيضا أشعر بالقلق قليلا بشأن التأثيرات المحتملة لهذه التكنولوجيا على الصحة العقلية لأولئك الذين يستخدمونها، وخاصة أولئك الذين يعانون من الحزن”.

وأشار إلى أن الحديث مع الموتى يمكن أن يسبب ضررا أكثر من نفعه، ما يؤدي إلى إدامة المزيد من الارتباك والتوتر والاكتئاب.
وباستخدام تقنية التزييف العميق، يمكن لبرنامج الذكاء الاصطناعي إنشاء تمثيل افتراضي تفاعلي للشخص المتوفى باستخدام محتواه الرقمي، مثل “الصور الفوتوغرافية ورسائل البريد الإلكتروني ومقاطع الفيديو”، وكانت تلك القدرات مجرد خيال علمي قبل بضع سنوات فقط، ولكنها الآن حقيقة علمية.

ويمكن للأشباح الرقمية أن توفر الراحة لمن فقدوا أحباءهم من خلال مساعدتهم، على إعادة التواصل مع “الموتى”، وفق موقع “ساينس أليرت”.

التشابه الغريب
لكن التشابه الغريب بين الروبوتات الأشباح وشخص عزيز مفقود “قد لا يكون إيجابيا كما يبدو”، وتشير “أبحاث سابقة” إلى أنه يجب استخدام “الروبوتات الأشباح” فقط كمساعدة مؤقتة للحداد، لتجنب الاعتماد العاطفي الضار المحتمل على التكنولوجيا.

هناك أيضا مخاطر تتمثل في أن هذه “الروبوتات الشبح”، قد تقول أشياء ضارة أو تقدم نصائح سيئة لشخص ما في حالة حداد.

وتتعرض البرامج التوليدية المماثلة مثل روبوتات الدردشة “تشات جي بي تي”، لانتقادات واسعة النطاق بالفعل لأنها تقدم معلومات مضللة للمستخدمين، وفق صحيفة “نيويورك تايمز”.

ويمكن استخدام تلك الأنظمة بشكل “غير لائق”، واستحضار شخص متوفى باعتباره شبحا يعمل بالذكاء الاصطناعي، ليقول لأحبائه “إنهم لم يكونوا محبوبين أو مفضلين لديه”.

وهناك أيضا “سيناريو أكثر تطرفا”، فقد يقترح “الروبوت الشبح” على المستخدم الانضمام إليهم في “الموت أو قتل شخص ما أو إيذائه”.

المصدر: سواليف

كلمات دلالية: سواليف مختصون البشر المحادثات الذكاء الاصطناعي المتوفين الصحة العقلية حياة الإنسان مخيفة الذکاء الاصطناعی

إقرأ أيضاً:

جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover

في خطوة جديدة تظهر مدى تغلغل الذكاء الاصطناعي في خدمات جوجل اليومية، بدأت الشركة باختبار معالجة المقالات باستخدام الذكاء الاصطناعي داخل منصة Discover، مما أثار جدلًا بين الناشرين والخبراء حول دقة المعلومات ودور جوجل كوسيط إعلامي. 

لاحظ موقع The Verge أن بعض المقالات المعروضة لمستخدمي Discover تحمل عناوين رئيسية مولدة بالذكاء الاصطناعي تختلف عن العناوين الأصلية المنشورة، وأحيانًا تكون مضللة أو خاطئة تمامًا.

على سبيل المثال، تم عرض عنوان جديد لمقال منشور على Ars Technica باسم "الكشف عن سعر جهاز Steam Machine"، بينما كان العنوان الأصلي يقول: "جهاز Steam Machine من Valve يبدو كجهاز تحكم، لكن لا تتوقع أن يكون سعره كذلك". لا توجد أي معلومات رسمية عن الأسعار، سواء في المقال الأصلي أو في أي منشور آخر من Valve. 

هذه الفجوة بين العنوان المولّد بالذكاء الاصطناعي والمحتوى الأصلي توضح المخاطر التي قد تنجم عن اعتماد الذكاء الاصطناعي في صياغة العناوين، خصوصًا أن المستخدم قد يتلقف معلومات غير دقيقة دون وعي.

لم يقتصر الأمر على العناوين، بل شمل المُلخصات أيضًا. لاحظ فريق Engadget أن Discover قد يعرض العناوين الأصلية مع ملخصات مولدة بالذكاء الاصطناعي، تحمل علامة تشير إلى أنها مولدة بالذكاء الاصطناعي، ما يُنبّه المستخدم لاحتمالية وجود أخطاء، لكنه لا يمنع هذه الأخطاء من الوصول إلى القراء. بعض الخبراء يرون أن الحذر الأفضل كان يتمثل في الامتناع عن استخدام الذكاء الاصطناعي في هذه الحالات حتى تتحقق دقة المعلومات بشكل كامل.

من جانبها، أوضحت مالوري ديليون، ممثلة جوجل، أن هذه الحالات كانت جزءًا من "تجربة صغيرة في واجهة المستخدم لمجموعة فرعية من مستخدمي Discover". وأضافت: "نختبر تصميمًا جديدًا يُغير موضع العناوين الحالية لتسهيل استيعاب تفاصيل الموضوع قبل استكشاف الروابط من جميع أنحاء الويب". 

وعلى الرغم من أن التجربة تبدو غير ضارة من الناحية النظرية، إلا أن جوجل لديها تاريخ طويل من التوتر مع الناشرين الإلكترونيين، حيث سعت الشركات الإعلامية مرارًا للحصول على تعويضات مقابل استخدام محتواها، وفي بعض الحالات قامت جوجل بحذف تلك المصادر من نتائج البحث، ثم بررت ذلك بأنها لا تضيف الكثير إلى أرباحها الإعلانية.

في الوقت نفسه، توسّع جوجل تجربة الذكاء الاصطناعي عبر وضع AI Mode، وهو روبوت دردشة وصفه تحالف وسائل الإعلام الإخبارية بأنه "سرقة" صريحة للمحتوى. نشر روبي ستاين، نائب رئيس المنتجات في بحث جوجل، على منصة X أن الشركة تختبر دمج وضع الذكاء الاصطناعي بشكل أكثر تكاملاً مع البحث على الأجهزة المحمولة، بحيث يظهر على نفس شاشة "نظرة عامة على الذكاء الاصطناعي" بدلاً من وجود خدمتين منفصلتين في علامات تبويب مختلفة. 

هذه الخطوة قد تجعل تجربة البحث أكثر تكاملاً، لكنها أيضًا ترفع التساؤلات حول دقة وموثوقية المعلومات المعروضة للمستخدمين، خصوصًا إذا اعتمدت على الذكاء الاصطناعي في إعادة صياغة الأخبار والمُلخصات.

تظهر هذه التحركات أن جوجل تسعى إلى دمج الذكاء الاصطناعي بشكل أعمق في تجربة المستخدم، لكن التحدي الأكبر يتمثل في ضمان دقة المعلومات والحفاظ على مصداقية المصادر. وبينما يرحب بعض المستخدمين بميزات الذكاء الاصطناعي التي توفر ملخصات سريعة وتسهّل الوصول إلى المعلومات، يحذر خبراء الإعلام من المخاطر المحتملة لتضليل القراء ونشر معلومات غير دقيقة قد تؤثر على الفهم العام للأخبار.

مع استمرار التجارب، يظل السؤال قائمًا: هل سيصبح الذكاء الاصطناعي في Discover أداة لتعزيز المعلومات، أم أنه سيزيد من ضبابية المحتوى ويضع جوجل في مواجهة جديدة مع الناشرين ومستخدمي الأخبار حول العالم؟

مقالات مشابهة

  • بسبب محادثات على سيجنال.. البنتاجون يتهم وزير الدفاع بتعريض القوات للخطر
  • جوجل تختبر عناوين ومُلخصات الذكاء الاصطناعي في Discover
  • ميادة الحناوي تكشف حقيقة استخدام الذكاء الاصطناعي في حفلاتها
  • متحدث الصحة: حقنة هتلر تسبب الفشل العضوي ويمكن أن تؤدي للوفاة
  • الأمم المتحدة تحذر من الذكاء الاصطناعي
  • الذكاء الاصطناعي في المدارس: أي الدول الأوروبية يعتمد معلموها هذه التقنيات أكثر من غيرها؟
  • هل يمكن للذكاء الاصطناعي قراءة أفكار الإنسان؟.. العلم يجيب
  • جيش بلا جنود.. إسرائيل تكشف كيف تحركت قواتها داخل غزة
  • مخاطر كبيرة للذكاء الاصطناعي.. كيف يمكن توظيفه لخدمة البشرية؟
  • كيف تكشف التزييف في عصر الذكاء الاصطناعي؟