الجزيرة:
2025-05-12@13:39:18 GMT

من شاشة مسلسل بلاك ميرور إلى واقع نعيشه اليوم

تاريخ النشر: 11th, May 2025 GMT

من شاشة مسلسل بلاك ميرور إلى واقع نعيشه اليوم

كان العالم مختلفا في عام 2011 عندما صدر مسلسل "بلاك ميرور" (Black Mirror) للمرة الأولى على منصة "نيتفلكس"، إذ كان العديد من التقنيات المعتادة الآن مثل الذكاء الاصطناعي ضربا من الخيال، لكن مع مرور الأيام، بدأت هذه التقنيات تصبح واقعا نتعامل معه بشكل يومي.

وبعد أن كان مسلسل "بلاك ميرور" ينتمي إلى فئة الخيال العلمي المتطرفة التي تعرض أشياءً غير واقعية، أصبح ينتمي إلى فئة المذكرات التشاؤمية، ليتحول سؤاله الرئيسي من: هل يمكن تواجد هذه التقنية؟ إلى ماذا يحدث إن أصبحت التقنية شريرة؟

وعبر حلقاته المختلفة، عرض المسلسل مجموعة من التقنيات التي نعرفها اليوم، بدءا من الذكاء الاصطناعي المتطور وبناء الشخصيات الحاسوبية وحتى التوأم الرقمي، طارقا العديد من القضايا المهمة حول أهمية خصوصية البيانات ومنصات التواصل الاجتماعي وأضرارها، وصولا إلى المراقبة المتطرفة وأزمات الواقع الافتراضي.

وفي حين كانت هذه التقنيات بعيدة المنال منذ 14 عاما عند طرح المسلسل للمرة الأولى، أصبحت الآن شيئا يُناقَش باستمرار داخل الشركات التقنية العملاقة وفي المعامل البحثية، ومن ضمن هذه التقنيات:

أصبح من المعتاد الآن وجود روبوتات الدردشة الذكية والقادرة على التفاعل مع المشاعر بشكل أقرب إلى البشر (رويترز) الروبوتات البشرية والذكاء الاصطناعي المقلد

في عام 2013، افتتح مسلسل "بلاك ميرور" موسمه الثاني بحلقة تدعى "بي رايت باك" (Be Right Back)، تدور حول حادث مروري تسبب في وفاة الزوج تاركا زوجته بمفردها تواجه أهوال الحياة، وفي وسط حالة الحزن الذي تعيشه الزوجة، تظهر أمامها خدمة جديدة تستنسخ الزوج عبر منشورات التواصل الاجتماعي ورسائله ومكالمات الفيديو وغيرها من الأمور المسجلة، ثم تصنع منه روبوت دردشة معززا بالذكاء الاصطناعي.

إعلان

يقوم هذا الذكاء الاصطناعي بتقليد الزوج في جميع تصرفاته وجوانب حياته المختلفة، لتشعر بأن الفقيد ما زال على قيد الحياة، ومع توطد علاقة الزوجة بهذا الروبوت، تطلب من الشركة صناعة نسخة مادية مكتملة الأركان من زوجها، لتعاود العيش معه مجددا حتى تتجه القصة إلى جانبها المظلم.

منذ 12 عاما، كانت هذه القصة ضربا من الخيال العلمي، لكن اليوم، هي ليست بعيدة المنال أو غريبة كما كانت وقتها، إذ أصبح من المعتاد الآن وجود روبوتات الدردشة الذكية والقادرة على التفاعل مع المشاعر بشكل أقرب إلى البشر، لدرجة أن رفقاء الذكاء الاصطناعي أصبحت خدمة مطلوبة عالميا، وربما كانت خدمة "ريبليكا" (Replika) التي تملك ملايين المستخدمين المثال الأوضح على هذا الأمر، ناهيك عن خدمات أخرى مثل "كاركتر" (Character)، التي تساعدك على التحدث مع المشاهير أو نسخ ذكاء اصطناعي منهم على الأقل.

روبوتات التوصيل تصبح آلات قتل

طرحت حلقة "ميتال هيد" (MetalHead) في عام 2017 ضمن أحداث الموسم الرابع من المسلسل، وفيها ظهرت مجموعة من روبوتات التوصيل على شكل حيوانات تحولت إلى آلات قتل يسيطر عليها الذكاء الاصطناعي من أجل القضاء على البشر.

ورغم أن الروبوتات القاتلة واحدة من أقدم الأفكار في فئة أفلام الخيال العلمي، إذ ظهرت للمرة الأولى عام 1984 مع فيلم "ترميناتور" (Terminator)، فإن "بلاك ميرور" تمكّن من عرضها بشكل أقرب إلى ما قد يحدث في الواقع، خاصة بعدما كشفت "بوسطن داينامكس" (Boston Dynamics) عن تطوير الروبوتات الخاصة بها والتي تشبه الحيوانات.

نظرة واحدة إلى نموذج الروبوت الذي تطوره "بوسطن داينامكس" وروبوت "بلاك ميرور" تجعلك تتأكد أن الشركة تسعى لتطوير هذه الروبوتات القاتلة، مما يجعل حلقة المسلسل تبدو متنبئة بالمستقبل، خاصة أن الشركة تحاول دمج الاستخدامات العسكرية مع الروبوت.

العديد من التطبيقات التي يتم تطويرها للهواتف المحمولة والحواسيب تتيح للآباء مراقبة أطفالهم ونشاطهم عبر الإنترنت (مواقع التواصل الاجتماعي) الرقابة المستمرة للأطفال

قدم مسلسل "بلاك ميرور" في الموسم الرابع أيضا واحدة من الحلقات المميزة التي جذبت أنظار العديد من المستخدمين حول العالم، وذلك لأنها طرحت قضية أخلاقية مبتكرة تتأرجح في المنطقة الرمادية دون وجود خطر على البشرية مثل بقية الحلقات.

إعلان

تناقش هذه الحلقة مسألة الرقابة الأبوية الرقمية على أطفالهم، وذلك بعد أن تتوه طفلة ماري، وعندما تجدها، تذهب بها إلى شركة جديدة تدعى "آرك إينجل" (Arkangel)، تقوم بتثبيت جهاز رقمي في عقل الطفلة الصغيرة يتيح لوالدتها مراقبتها عن بُعد ومعرفتها مكانها طوال الوقت، فضلا عن مراقبة ما تراه وتسمعه مع إتاحة خاصية للحظر، إذ يمكن للوالد أن يحظر المشاهد التي يعتقد أنها خطرة أكثر من اللازم.

ورغم أن هذه التقنية اليوم لم تصل إلى هذه النقطة بعد، فإن العديد من التطبيقات التي يتم تطويرها للهواتف المحمولة والحواسيب تتيح للآباء مراقبة أطفالهم ونشاطهم عبر الإنترنت، فضلا عن إمكانية حظر بعض التطبيقات والخدمات.

ومع تطور تقنية المتعقبات الصغيرة مثل "آير تاغ" (AirTag) إلى جانب المتعقبات التي يتم تطويرها خصيصا لتتبع الأطفال، تصبح هذه الحلقة أقرب إلى الواقع بشكل غير مسبوق.

باقات الاشتراكات وعرض الإعلانات

في الموسم الأول لمسلسل "بلاك ميرور" عرضت "نيتفلكس" حلقة تدعى "فيفتين مليون ميرتس" (Fifteen Million Merits)، تدور حول شاب يعيش في غرفة محاطة بكافة أنواع الشاشات التي تتيح له مشاهدة الأعمال السينمائية والألعاب كما يحب.

ومن أجل استخدام هذه الشاشات، يجب عليه أن يتدرب على عجلة ثابتة ليكسب ما يُعرَف باسم "ميرتس" وهي أشبه بالعملة في هذه الحلقة، يمكن للشاب إنفاق هذه العملات من أجل مشاهدة برامج التلفاز والألعاب دون الحاجة إلى مشاهدة الإعلانات المرفقة معها، ولكن في حالة انتهت العملات التي يملكها، فإنه لن يستطيع مشاهدة الحلقات أو الألعاب دون إعلانات.

وإذا حاول إغلاق عينيه أو تخطي الإعلان، فإن الشاشة والنظام يحذرونه بأنه لا يملك نقاطا كافية لتخطي هذا الإعلان وعليه مشاهدته حتى النهاية، وبينما كانت "نيتفلكس" في تلك الفترة لا تملك باقة اشتراك تضم الإعلانات، أصبحت اليوم تملك هذه البطاقة، لتصبح الحلقة أقرب إلى سخرية مباشرة لما تقوم به "نيتفلكس".

إعلان

ولا تقتصر هذه الحلقة على فكرة مشاهدة الإعلانات فقط، بل تمتد إلى أبعد من ذلك، إذ يوجد برنامج داخل الحلقة يضم جمهورا من الذكاء الاصطناعي والروبوتات بدلا من الجمهور الحقيقي، ورغم أن الحلقة طرحت منذ 14 عاما تقريبا، فإننا اليوم نرى تطبيقا يدعى "فاميفاي" (Famify) يقدم الخدمة ذاتها، إذ يمكنك أن تصبح مشهورا أمام الملايين من المتابعين، لكن هؤلاء المتابعين هم أجهزة ذكاء اصطناعي فقط دون وجود أي بشر.

المصدر: الجزيرة

كلمات دلالية: حريات الذکاء الاصطناعی بلاک میرور هذه الحلقة العدید من أقرب إلى

إقرأ أيضاً:

كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟

#سواليف

تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.

هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟

تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.

مقالات ذات صلة 5 أدوات مجانية لمعرفة ما إذا كانت بياناتك مسربة على الإنترنت المظلم 2025/05/11

لماذا تخطئ أو تهلوس؟

لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.

هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.

وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة

نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.

كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.

لماذا يصعب إصلاح هذه الأخطاء؟

يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:

تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة

وللتغلب على هذه المشكلات، يلجأ المطورون إلى:

التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.

ما دور المستخدمين؟

#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.

مقالات مشابهة

  • كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
  • قنوات عرض مسلسل المدينة البعيدة وموعد الحلقة الأخيرة
  • في زمن الذكاءِ الاصطناعيِّ والجندرِ الحُرِّ: لماذا يعودُ العشقُ الإلهيُّ إلى الواجهة؟
  • بابا الفاتيكان يحذّر: الذكاء الاصطناعي تحد للبشرية
  • مدبولي: توجيهات الرئيس السيسي كانت وراء تحول المنطقة الاقتصادية من فكرة إلى واقع
  • مسلسل حرب الجبالي.. موعد عرض الحلقة الأولى والقناة الناقلة رسميا
  • محمد عبد الرحمن يدخل في دائرة الشك من جديد.. ملخص أحداث الحلقة الخامسة من مسلسل "بريستيج"
  • تعرف على موعد عرض الحلقة الجديدة من مسلسل "برسيتيج" لـ مصطفى غريب ومحمد عبدالرحمن
  • الذكـاء الاصطناعـي «الخـارق» لـم يولـد بعـد!