استحضار الموتى رقميا.. أداة ذكاء اصطناعي تثير جدلا أخلاقيا
تاريخ النشر: 21st, September 2023 GMT
أثارت الصور ومقاطع الفديو التي يولدها الذكاء الاصطناعي للأشخاص المتوفين وهم يتحدثون، جدلا أخلاقيا لدى الكثيرين، فيما وصف خبراء الذكاء الاصطناعي تلك المخاوف بالمبالغات.
ونقل موقع "سينس أليرت"، عن الخبراء قولهم، إن المخاوف بشأن "استحضار الأرواح رقميا" مبالغ فيها، حيث يستعين بعض المستخدمين بأدوات الذكاء الاصطناعي لإعادة استحضار أشخاص متوفين.
وذكر الموقع في تقرير له، أن "الذكاء الاصطناعي التوليدي الذي يشمل نماذج لغوية كبيرة (LLMs) مثل ChatGPT وأيضا برامج توليد الصور والفيديو مثل DALL·E 2 - يعزز ما بات يعرف باسم استحضار الأرواح الرقمية، وهو استحضار الموتى عبر الآثار الرقمية التي يتركونها وراءهم".
وسبق أن دارت نقاشات مطولة حول "استحضار الأرواح رقميا" لأول مرة عام 2010، بعد عرض فيديو مدعوم بتقنية التزييف العميق (deep fake technology) لإعادة استحضار مشاهير متوفين مثل، بروس لي، ومايكل جاكسون، وتوباك شاكور، كما ظهر كاري فيشر، وبيتر كوشينغ، وآخرين، في فيلم عقب وفاتهم.
ويضيف الموقع، أن استخدام الذكاء الاصطناعي التوليدي كان حكرا بداية الأمر على شركات إنتاج الأفلام والموسيقى ذات الموارد الكبيرة، مما أدى إلى تعزيز إمكانية الوصول إلى التقنيات التي تم استخدامها لإعادة استحضار هؤلاء النجوم وغيرهم للجميع".
وخلال العام الماضي، قبل قبل ظهور ChatGPT، تمكن أحد المستخدمين من الحديث مع خطيبته المتوفاة بناء على نصوصها ورسائل البريد الإلكتروني الخاصة بها، من خلال أداة LLM الخاصة بشركة OpenAI.
وأوضح، أن أدوات الذكاء الاصطناعي التوليدي يستخدم الكتابة (على سبيل المثال، على وسائل التواصل الاجتماعي ورسائل البريد الإلكتروني)، والتسجيلات الصوتية للكلام والصور ومقاطع الفيديو الخاصة بالأحباء التي يرسلها العملاء، ثم يقومون بتدريب نماذج الذكاء الاصطناعي التي تجعل من الممكن التفاعل معهم بعد وفاتهم من خلال الصور والصوت والنص.
وعقب انتشار هذه الأداة، أطلقت عدة شركات ناشئة مثل Here After وReplika خدمة تتيح الاعتماد على الذكاء الاصطناعي التوليدي من أجل إعادة استحضار الموتى لأحبائهم، وفقا للموقع.
وأشار إلى أن هذه التكنولوجيا أثارت مخاوف الكثيرين في الجانب الثقافي والأخلاقي، حيث يشعرون بعدم الارتياح العميق من فكرة أننا قد نتفاعل بشكل روتيني مع المحاكاة الرقمية للموتى، ولهذا ينظر لاستحضار الأرواح رقميا بعين الريبة.
وبين الموقع أن هذا قد يثير قلق بعض الناس، إلا أن الخبراء يعتقدون أنه لا يوجد سبب لذلك. ولدى الكثير من الناس صور وفيديوهات لأحبائهم المتوفين في الماضي، ويعتبرونها ذكريات.
ويذكر الموقع، أن الكثيرون يقولون عند تأملهم في غرابة اللقاءات مع الموتى الذين عادوا إلى التفاعل الرقمي معنا، بأن أولئك الذين يتواصلون ليسوا في الواقع أمواتًا على الإطلاق، بل محتالون.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي التزييف العميق الذكاء الاصطناعي التضليل مقاطع مصورة التزييف العميق علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تغطيات سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی التولیدی
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر