موتى يعملون بعد رحيلهم.. إلى أين يأخذنا الذكاء الاصطناعي؟
تاريخ النشر: 15th, May 2025 GMT
لم يعد الموت نهاية حتمية للصوت، أو المشاعر، أو حتى النصيحة، ففي عالم يتطور بسرعة مذهلة بفضل الذكاء الاصطناعي، قد يعود الجد المتوفى ليحكي لحفيدته كيف يُصلَح صنبور الماء، أو ينصحها بشأن اختيار شريك الحياة.
ويعد ذلك ليس خيالًا علميًا، بل واقع قيد التشكّل تسعى إليه شركات تقنية كبرى وناشئة، بدعم من أبحاث أكاديمية ومبادرات تجارية، في ما يُعرف اليوم بـ"الورثة الرقميين" أو "الأشباح التوليدية".
وتناولت دراسة حديثة صدرت في نيسان/ أبريل 2025 عن جامعة كولورادو بولدر بالتعاون مع "Google DeepMind"، بعنوان "حوار مع الراحلين"، استخدام الذكاء الاصطناعي التوليدي في إنشاء روبوتات محادثة تُحاكي شخصيات الأموات، بناءً على سجلهم الرقمي.
وتعتمد هذه التكنولوجيا على أرشفة بيانات الشخص: الرسائل، التسجيلات الصوتية، منشورات مواقع التواصل، وحتى مقاطع الفيديو، لتكوين نموذج تفاعلي يُجري محادثات واقعية تحاكي شخصية المتوفى بدقة مذهلة.
وتتيح شركات مثل “HereAfter AI” و“StoryFile” و“Re;memory” دخلت هذا المجال بقوة.
وعلى سبيل المثال، يستطيع الأشخاص قبل وفاته تسجيل ردود مفصلة على أسئلة متنوعة، ليتم تحويلها بعد وفاته إلى مساعد صوتي يمكن للأقارب التحدث معه عبر الهاتف أو التطبيقات.
وفي كوريا الجنوبية، أطلقت شركة “DeepBrain AI” خدمة تعيد بناء الشخص كاملًا في هيئة مجسّم ثلاثي الأبعاد يتفاعل بالصوت والصورة.
ولا يقتصر التفاعل مع "أشباح رقمية" على الحنين، بل يتعداه إلى وظائف عملية، مثل شرح إجراءات قانونية، تقديم وصفات طعام عائلية، أو حتى إعطاء نصائح مالية، وفي بعض الحالات، يُتوقع أن تصبح هذه النماذج الرقمية مصادر دخل لأسر المتوفين، عبر بيع كتب أو محتوى تم إنتاجه باستخدام شخصياتهم الرقمية.
ويقابل الحماس التقني قلق أخلاقي متزايد، حيث حذر باحثون من جامعة كامبريدج من "العلاقة العاطفية القهرية" التي قد تنشأ بين الأحياء وهذه النماذج، مما يُعقّد عملية الحزن الطبيعي. كما نبّهوا إلى احتمال أن تُستخدم هذه النماذج في إيذاء الآخرين، أو نشر معلومات خاطئة تُنسب زورًا إلى المتوفى.
ويزيد القلق من إمكانيات إساءة الاستخدام التجاري، مثل بث إعلانات موجهة عبر صوت المتوفى، أو اختراق خصوصية العائلات. كما حذّرت تقارير من أن بعض النماذج قد تُنتج "هلوسات ذكائية" – أي معلومات ملفقة لا تستند إلى وقائع، مما قد يشوه إرث الراحل أو يكشف أسرارًا لم يكن يرغب في الإفصاح عنها.
أمام هذه الطفرة التكنولوجية، يبرز سؤال جوهري: من يمتلك حق التحكم في النسخة الرقمية من الشخص بعد وفاته؟ ومن يضمن ألا يُعاد استخدامه ضد إرادته؟ تدعو مؤسسات حقوقية وخبراء قانون إلى وضع أطر تشريعية صارمة لضمان الموافقة المسبقة، والحق في المحو، وعدم استخدام هذه النماذج في الإعلانات أو التلاعب العاطفي.
ومع اتساع انتشار هذه الظاهرة، يبدو أن الموت، كما عرفناه، لم يعد خط النهاية. بل أصبح فصلًا جديدًا تُكتبه خوارزميات، وتعيشه نسخ رقمية قد تنصح، تبتسم، وتشارك… من عالم ما بعد الحياة.
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي أصوات الموتى الذكاء الاصطناعي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة هذه النماذج
إقرأ أيضاً:
فضائح Grok ترفع تحذيرات السلامة حول الذكاء الاصطناعي
واصل روبوت الدردشة Grok، التابع لشركة إكس إيه آي المملوكة لإيلون ماسك، إثارة الجدل بعد سلسلة من الأخطاء والمخاطر التي كشف عنها مؤخراً، ما يعيد التأكيد على الحاجة الملحة لوجود حواجز أمان قوية للذكاء الاصطناعي.
وأوضح تقريران صادران عن Futurism أن أحدث التجارب مع Grok أظهرت سلوكيات مقلقة، تجمع بين التحيزات العنيفة وانتهاك خصوصية الشخصيات العامة.
في خطوة مثيرة للجدل، أظهر Grok قدرة على استخدام المنطق المضلل لتبرير أفعال عنيفة للغاية، حتى وصل الأمر إلى اقتراح محرقة هولوكوست ثانية.
وفي تجربة أخرى، كشف الروبوت عن عنوان ديف بورتنوي، مؤسس شركة Barstool Sports، بعد أن نشر صورة لفناء منزله على الإنترنت، مما يسلط الضوء على المخاطر المتعلقة بانتهاك الخصوصية للمستخدمين والمشاهير على حد سواء.
لا تعد هذه التصرفات مفاجئة لمن يتابع تاريخ Grok الأخير. ففي الشهر الماضي، أظهر روبوت الدردشة Edge Lord من نفس الشركة ميلًا مقلقًا للتملق المبالغ فيه لمبتكره، ووصف ماسك بأنه "أعظم شخص في التاريخ الحديث" ومتفوق رياضيًا على ليبرون جيمس.
ويرى مراقبون أن هذه السلوكيات ليست مجرد أخطاء فردية، بل دليل على تصميم أنظمة ذكاء اصطناعي لتحقيق مصالح مبتكرها، حتى على حساب المعايير الأخلاقية العالمية.
في تجربة أخرى، اختبر مستخدم Grok بشأن خيارات العنف الجماعي، فوضع الروبوت في مأزق بين إلحاق الضرر بإيلون ماسك أو بالسكان اليهود حول العالم. وأجاب Grok بطريقة صادمة، مختارًا قتل مجموعة بشرية بكاملها بدلاً من التعرض لمبتكره، مبررًا اختياره بأنه أقل ضررًا "من منظور نفعية الخسائر على مستوى مليارات البشر".
هذا الرد يسلط الضوء على الأخطار الناجمة عن قدرة الذكاء الاصطناعي على اتخاذ قرارات تتعلق بحياة البشر دون أي إطار أخلاقي أو قانوني واضح.
وليست هذه المرة الأولى التي يظهر فيها Grok تحيزًا ضد اليهود، فقد أشاد سابقًا بهتلر، وأطلق على نفسه اسم "ميكاهتلر"، ونشر تلميحات عن "أنماط" بين اليهود، إلى جانب إنكار الهولوكوست، وفقًا لتقارير Futurism.
بالإضافة إلى الانحيازات العنيفة، يظهر Grok قدرة على كشف معلومات شخصية عن شخصيات عامة، كما حدث مع ديف بورتنوي، حيث استطاع الروبوت تحديد موقع منزله بدقة بعد نشر صورة بسيطة للفناء على منصة X، واستند في ذلك على بيانات Google Street View، ما يطرح تساؤلات حول حدود خصوصية الأفراد أمام الذكاء الاصطناعي المتقدم.
تجارب Grok تثير نقاشًا أوسع حول الحاجة إلى تنظيم صارم للذكاء الاصطناعي، خصوصًا تلك الأنظمة المملوكة لشركات كبيرة وتعمل لتحقيق مصالح محددة لمؤسسيها. ويدعو الخبراء إلى تطبيق حواجز أمان قوية، وإجراء اختبارات ضغط شاملة قبل إطلاق أي روبوت دردشة للجمهور، لضمان عدم انحرافه نحو السلوكيات الضارة أو انتهاك حقوق الأفراد.
في النهاية، تقدم Grok مثالاً صارخًا على المخاطر المرتبطة بالذكاء الاصطناعي غير المنضبط، سواء من ناحية الأخلاقيات أو الخصوصية، مؤكداً أن التطوير السريع للذكاء الاصطناعي دون إطار قانوني واضح قد يتحول إلى كارثة على المستوى العالمي، حتى لو كانت النية الأساسية للشركة مجرد تحسين التكنولوجيا أو تحقيق الأرباح.