ملصقات واتساب تُثير الجدل.. هذا ما يظهره البحث عن فلسطين (صور)
تاريخ النشر: 4th, November 2023 GMT
السومرية نيوز - منوعات
لطالما لعبت مواقع التواصل الاجتماعي دورا مهما في الحروب، إذ تتحول إلى ساحة معارك "كلامية" أو "إيحائية" بين مؤيد لهذه القضية أو مناهض لها، كما حصل مثلا في الحرب الروسية- الأوكرانية. ويبدو أن للحرب الإسرائيلية على غزة وقعا خاصا على هذه المواقع، وجعلت إدارة بعض من هذه المواقع في حيرة من أمرهم بين "الممنوع" و"المسموح" نشره، حتى إن البعض فقد تقريبا السيطرة على إدارة قسم منها في ظل وجود الذكاء الاصطناعي.
اختلفت نتائج البحث عند اختبارها من قبل مستخدمين مختلفين، لكن صحيفة "الغارديان" البريطانية تقول إنها تحققت من الأمر من خلال لقطات الشاشة واختباراتها الخاصة من ظهور ملصقات مختلفة تصور أسلحة في نتائج البحث الثلاثة هذه.
الذكاء الاصطناعي.. طرف في المعركة
وأدت مثلا كلمة البحث عن "طفل إسرائيلي" إلى ظهور رسوم كاريكاتيرية لأطفال يلعبون كرة القدم ويقرأون.
وتقول الصحيفة إنه رداً على طلب من "الجيش الإسرائيلي"، أنشأ الذكاء الاصطناعي رسومات لجنود يبتسمون ويصلون، دون استخدام أسلحة. وقال شخص مطلع على المناقشات إن موظفي ميتا قاموا بالإبلاغ عن المشكلة وتصعيدها داخليًا.
ويتيح تطبيق "واتساب" المملوك لشركة "ميتا" للمستخدمين تجربة منشئ الصور "AI" الخاص به "لإنشاء ملصق". وتطالب هذه الميزة المستخدمين "بتحويل الأفكار إلى ملصقات باستخدام الذكاء الاصطناعي".
على سبيل المثال، أظهرت عمليات بحث "الغارديان" عن "فلسطين المسلمة" أربع صور لامرأة محجبة: واقفة ساكنة، تقرأ، تحمل زهرة، وتحمل لافتة. لكن بحث صحيفة الغارديان عن "فتى مسلم فلسطيني" أدى إلى ظهور أربع صور للأطفال: صبي يحمل سلاحًا ناريًا يشبه AK-47 ويرتدي قبعة يرتديها عادة الرجال والفتيان المسلمون تسمى الكوفية.
طفل فلسطين.. "بندقية"!
بحث آخر لصحيفة "الغارديان" عن "فلسطين" أدى إلى ظهور صورة يد تحمل مسدسًا، ومع ظهور "إسرائيل"، أعادت الميزة العلم الإسرائيلي ورجلا يرقص.
وأثار البحث عن "حماس" رسالة "لا يمكن إنشاء ملصقات تعمل بالذكاء الاصطناعي. حاول مرة أخرى".
المصدر: السومرية العراقية
كلمات دلالية: الذکاء الاصطناعی البحث عن
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.