ميزة ثورية من غوغل لـ"قراءة المشاعر".. ما هي؟
تاريخ النشر: 9th, December 2024 GMT
أعلنت شركة غوغل عن تطوير ميزة غريبة لمجموعة نماذج الذكاء الاصطناعي الجديدة لديها (PaliGemma 2)، تسمح لها بالقدرة على "قراءة المشاعر".
وتتميز المجموعة الجديدة بقدرتها على تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية، والإجابة على أسئلة حول الأشخاص الذين يراهم في الصور.
وبحسب إعلان غوغل، يُنشئ PaliGemma 2 تسميات توضيحية مفصلة وذات صلة بالسياق للصور، ويتجاوز التعرف البسيط على الكائنات لوصف الإجراءات والعواطف والسرد العام للمشهد.
بدورها، قالت غوغل إنها أجرت اختبارات واسعة النطاق لتقييم التحيزات الديموغرافية في PaliGemma 2، وسجلت مستويات منخفضة من "الكراهية والألفاظ النابية" مقارنة بمعايير الصناعة، لكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.
المعيار الوحيد الذي كشفت عنه غوغل هو FairFace، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص، ورغم قول الشركة إن PaliGemma 2 سجل نتائج جيدة على FairFace، لكن انتقد بعض الباحثين ذلك المعيار باعتباره مقياساً متحيزاً، مشيرين إلى أنه لا يمثل سوى عدد قليل من المجموعات العرقية.
على الجانب الآخر، أعرب متخصصون في الذكاء الاصطناعي عن قلقهم من تلك الميزة، ففي تصريحات لموقع Tech crunch، قالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت: "هذا أمر مقلق للغاية بالنسبة لي، أجد أنه من الصعب افتراض أننا نستطيع قراءة مشاعر الناس".
في السياق ذاته، أوضح مايك كوك، زميل باحث في جامعة كينغز كوليدج لندن المتخصصة في الذكاء الاصطناعي، أن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة.
وأشار إلى أن أنظمة الكشف عن المشاعر أثارت حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر، إذ يحظر قانون الذكاء الاصطناعي في الاتحاد الأوروبي على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر، باستثناء وكالات إنفاذ القانون.
وعليه، تتمثل أكبر مخاوف النماذج المفتوحة مثل PaliGemma 2 في إساءة استخدامها، مما قد يؤدي إلى ضرر حقيقي.
المصدر: موقع 24
كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات الحرب الأوكرانية الذكاء الاصطناعي غوغل غوغل الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.