ففي حادثة غريبة وقعت مؤخرا في ماليزيا اكتشف زوجان مسنان أن وجهة أحلامهما لم تكن سوى خدعة تقنية متقنة صُنعت بالكامل بواسطة الذكاء الاصطناعي.

وبدأت القصة عندما شاهد زوجان فيديو انتشر على فيسبوك وتيك توك ومنصات التواصل الاجتماعي الأخرى، يظهر "تلفريك" في مدينة صغيرة تبعد أكثر من 4 ساعات عن العاصمة الماليزية كوالالمبور.

وحسب ما أورد برنامج "حياة ذكية" في حلقة (2025/7/30)، فقد أظهر الفيديو مشاهد جذابة: مطاعم فاخرة وغزلانا تتجول في محيط الموقع. أما مقدمة الفيديو فبدت فتاة حقيقية، مما عزز مصداقية المكان بالنسبة للزوجين.

وحجز الزوجان فندقا وتوجها إلى المدينة بحثا عن المكان الساحر الذي شاهداه في الفيديو المنتشر، لكن المفاجأة الصادمة أن هذا المكان بما فيه "التلفريك" غير موجود أصلا، فقد كانت كل المشاهد وهما رقميا.

وبعد تأكدهما من زيف الفيديو، فكر الزوجان في رفع شكوى ضد الفتاة التي قامت بالترويج، لكن تبين لهما أنها لم تكن سوى شخصية وهمية لم تُخلق يوما.

وتم إنتاج الفيديو بالكامل بواسطة الذكاء الاصطناعي باستخدام تقنية "غوغل فيو 3″ (Google Veo 3)، وهو الإصدار الأحدث من تقنية توليد الفيديوهات بالذكاء الاصطناعي.

ورغم وضوح الشعار في زاوية الفيديو، لم ينتبه له الزوجان الماليزيان.

وتدق حادثة الزجين الماليزيين التي أثارت ضجة كبيرة ناقوس الخطر وتعيد طرح تساؤلات حقيقية حول أخطار الذكاء الاصطناعي، خاصة في مجال المحتوى المولد تلقائيا أو ما يعرف بـ"ديب فايك" (deepfake)

وباتت التكنولوجيا المتقدمة تمكّن من إنشاء فيديوهات زائفة يصعب تمييزها عن الحقيقية خاصة من قبل المستخدمين غير المتخصصين.

30/7/2025-|آخر تحديث: 22:02 (توقيت مكة)

المصدر: الجزيرة

كلمات دلالية: حريات دراسات الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • تمديد استخدام تقنية الفيديو للإعلان عن جميع قرارات الحكم في ألمانيا
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • الاتحاد الأسكتلندي يستعين بمدربي الطيارين لتطوير حكام تقنية الفيديو
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي