الذكاء الاصطناعي يبتكر مؤثّرات رقميّات يَجْتَحْن السوشيل ميديا
تاريخ النشر: 3rd, August 2025 GMT
بعد نجاح ميا زيلو في لفت الأنظار بصورها من بطولة ويمبلدون 2025، تبيّن لاحقًا أنها ليست إنسانة حقيقية، بل مؤثّرة رقمية تعتمد على الذكاء الاصطناعي. هذا الحدث أعاد تسليط الضوء على ظاهرة المؤثّرين الافتراضيين الذين باتوا يحتلّون مكانة لافتة على مواقع التواصل الاجتماعي.
في السنوات الأخيرة، انتشر عدد كبير من المؤثّرين الرقميين المصمّمين بالذكاء الاصطناعي حول العالم.
ولعلّ أكثر ما يلفت هو حجم التفاعل على صفحاتهم، الذي يبدو حقيقياً بقدر تفاعل المتابعين مع المؤثّرين البشر، إن لم يكن أكثر أحيانًا.
وقد بدت ميا زيلو، المؤثّرة الرقمية التي ظهرت أخيرًا في صور من ويمبلدون 2025، وكأنها تعيش الحدث بكل تفاصيله: الفستان الأبيض، مشروب Pimm’s، واللقطة الأيقونية بجانب الملعب. انتشرت الصور بسرعة، رغم أن الحساب مذكور فيه بوضوح أنه لشخصية “رقمية – مؤثرة بالذكاء الاصطناعي”.
ميا ليست وحدها في العائلة الافتراضية! فلديها “أخت” تدعى آنا زيلو، وهي مؤثّرة رقمية أيضًا، تملك قاعدة جماهيرية تفوق 300 ألف متابع، وسبق أن قدّمت ميا لجمهورها كجزء من “عائلة زيلو”. وبحسب صفحتيهما على إنستغرام، تتشارك الأختان حب الموضة والأناقة، والتعبير عن جوانب شخصية تبدو واقعية جدا.
وبين أشهر المؤثّرات الافتراضيات عالميًا، تبرز شخصية Lil Miquela، وهي شابة “رقمية” من لوس أنجلوس تم إطلاقها العام 2016. يتابعها أكثر من 2.5 مليون شخص على إنستغرام، وتقدّم نفسها كمغنية، وعارضة أزياء، وناشطة اجتماعية. وقد تعاونت مع كبرى دور الأزياء مثل Prada وCalvin Klein، وظهرت في حملات دعائية إلى جانب مشاهير حقيقيين، ما جعل الجمهور يتعامل معها كما لو كانت شخصية واقعية بكل تفاصيلها.
View this post on InstagramA post shared by Lu do Magalu ???? (@magazineluiza)
أما في البرازيل، فقد أطلقت شركة Magazine Luiza شخصية افتراضية تُدعى Lu do Magalu، وهي من أوائل المؤثّرين الرقميين في العالم، ظهرت لأول مرة في العام 2003. اكتسبت شهرة واسعة خلال السنوات الأخيرة بفضل محتواها التقني والتجاري، وتملك اليوم أكثر من 6.6 مليون متابع على إنستغرام، وحوالي 15 مليون على فيسبوك. تُعد وجهًا إعلاميًا دائمًا لحملات الشركة، كما تنشر فيديوهات تعليمية، وتروّج للمنتجات، وتتفاعل بقوّة مع الجمهور.
وتُعتبر Shudu Gram أول “سوبر موديل رقمية” في العالم، ابتكرها المصور البريطاني كاميرون-جيمس ويلسون في العام 2017. تتميّز بملامح واقعية للغاية وبشرة داكنة تعكس جمال المرأة الإفريقية. يتابعها أكثر من 238 ألف شخص على إنستغرام، وقد تعاونت مع علامات بارزة في عالم الموضة والتكنولوجيا، وشاركت في حملات دعائية رقمية ضخمة.
CNN ARABIC
إنضم لقناة النيلين على واتسابالمصدر: موقع النيلين
كلمات دلالية: على إنستغرام المؤث رین
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.