أطفال فلسطينيون يحملون أسلحة.. خدمة واتساب الجديدة تثير الجدل
تاريخ النشر: 3rd, November 2023 GMT
تظهر خدمة واتساب الجديدة التي تولد صورا باستخدام الذكاء الاصطناعي، أطفالا يحملون أسلحة عندما يطلب منها الدلالة على "فلسطين"، بينما أكدت شركة "ميتا" المالكة للتطبيق سعيها لحل "المشكلة ومعالجتها"، حسب تقرير لصحيفة "الغارديان" البريطانية.
ويتيح تطبيق "واتساب" المملوك لشركة "ميتا" للمستخدمين تجربة "منشئ الصور الجديد"، وذلك بتحويل الأفكار إلى ملصقات باستخدام "الذكاء الاصطناعي".
وتشير الصحيفة إلى أن الميزة الجديدة تعرض صورة مسدس أو صبي يحمل مسدسا عندما يُطلب منها مصطلحات "فلسطيني" أو "فلسطين" أو "فتى مسلم فلسطيني".
اختلفت نتائج البحث عند اختبارها من قبل مستخدمين مختلفين، لكن "الغارديان" تحققت من خلال لقطات الشاشة واختباراتها الخاصة من ظهور ملصقات مختلفة تصور أسلحة.
وعندما يطلب من نفس الميزة تصوير "الصبي الإسرائيلي" تظهر رسوم كاريكاتورية لأطفال يلعبون كرة القدم ويقرأون.
وردا على طلب بشأن "الجيش الإسرائيلي"، أنشأ الذكاء الاصطناعي رسومات لجنود يبتسمون ويصلون، دون استخدام أسلحة، حسبما تشير "الغارديان".
وقال شخص مطلع لـ"الغارديان"، إن موظفي ميتا قاموا بالإبلاغ عن المشكلة.
ومن جانبه أكد المتحدث باسم "ميتا" أن "الشركة على علم بالمشكلة وتعالجها".
وقال: "يمكن أن تعرض النماذج مخرجات غير دقيقة أو غير مناسبة كما هو الحال مع جميع أنظمة الذكاء الاصطناعي التوليدية، سنستمر في تحسين هذه الميزات وسيشارك المزيد من الأشخاص تعليقاتهم".
وتبحث شركة "ميتا" المالكة لموقع فيسبوك وتطبيق إنستغرام، أفضل السبل لتطبيق قواعد المحتوى الخاصة بها في خضم الحرب بين إسرائيل وحركة حماس في قطاع غزة، وفق تقرير لصحيفة "وول ستريت جورنال".
ويقود الشركة التي تتعامل مع "ميتا" في إسرائيل، مسؤولا تنفيذيا عمل سابقا لدى رئيس الوزراء الإسرائيلي، بنيامين نتانياهو، وفقا للصحيفة.
وفي الوقت ذاته، يقوم فريق سياسات حقوق الإنسان الذي يتخذ من دبي مقرا له، بتغطية الدول العربية، بما في ذلك الأراضي الفلسطينية.
وبحسب ما نقلت الصحيفة عن أشخاص مطلعين على الأمر، فإنه "غالبا ما تختلف هذه الفرق حول المحتوى في المنطقة".
وتعتمد "ميتا" بشكل كبير على الأتمتة لمراقبة المحتوى في فيسبوك وإنستغرام، لتحليل اللهجة العربية الفلسطينية، وفي بعض الحالات ليس لديهم ما يكفي من البيانات باللغة العبرية للعمل بفعالية.
وفي أحد أبرز الأمثلة على أخطاء الترجمة التلقائية التي يستخدمها تطبيق إنستغرام، هو تغيير عبارات في الملف التعريفي لبعض الحسابات الفلسطينية، من "فلسطيني" إلى "إرهابي فلسطيني".
وعندما تلجأ شركة "ميتا" إلى موظفين بشريين لسد هذه الفجوات، يكون لدى بعض الفرق "وجهات نظر مختلفة حول كيفية تطبيق القواعد، وعلى من يتم تطبيقها" حسبما تؤكد "وول ستريت جورنال".
وأسفر الهجوم الذي شنته حركة حماس في السابع من أكتوبر عن مقتل أكثر من 1400 شخص في إسرائيل معظمهم من المدنيين، وبينهم أطفال ونساء، بحسب السلطات الإسرائيلية.
وردت إسرائيل بقصف مكثف على غزة، ما أدى إلى مقتل 9061، بينهم 3760 طفلا، و2326 سيدة و32 ألف مصاب، حسب آخر إحصائيات وزارة الصحة في القطاع التابعة لحماس، الخميس.
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
غوغل تعيد رسم خارطة البحث الطبي بالذكاء الاصطناعي
في عصر يلجأ فيه الملايين إلى الإنترنت يوميا للبحث عن إجابات للأسئلة الصحية، أصبحت الحاجة إلى معلومات طبية موثوقة ودقيقة أكثر إلحاحًا من أي وقت مضى.
ومع تزايد حجم المحتوى الطبي المتاح عبر الشبكة، تواجه منصات البحث، مثل "غوغل"، تحديًا كبيرًا في تحقيق التوازن بين توفير إجابات سريعة وضمان دقتها العلمية.
ويأتي هنا دور الذكاء الاصطناعي كأداة حاسمة لمعالجة هذه المعضلة، إذ تطور "غوغل" تقنيات مبتكرة لفهم الأسئلة الطبية المعقدة، وتصفية المصادر غير الموثوقة، والتعاون مع الخبراء الطبيين لبناء نظام بحث أكثر أمانًا وموثوقية.
دمجت "غوغل" منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية، بدءًا من تحليل صور الأشعة، مرورًا بالتنبؤ بمخاطر الأمراض، ووصولًا إلى تحسين جودة المعلومات الطبية.
ولكن التطورات الجديدة تركز بشكل خاص على فهم نية المستخدم حين يطرح سؤالًا صحيا، والرد عليه بإجابات مبنية على بيانات موثوقة، بل صياغتها بأسلوب مفهوم وسهل.
وتتعلق نسبة كبيرة من عمليات البحث اليومية بالصحة. وفي هذا السياق، تصبح دقة الفهم وتحديد المصدر أمرًا بالغ الحساسية، وخصوصًا عندما تتعلق الأسئلة بحالات حرجة أو أمراض مزمنة أو نصائح علاجية.
الذكاء الاصطناعي يُحسِّن فهم الأسئلة الطبيةتعتمد "غوغل" على نماذج لغوية متقدمة، ولكنها لا تكتفي بالتحليل اللغوي المعتاد، بل تخضع الأسئلة الطبية لسلسلة من العمليات التي تهدف إلى فهم القصد، وتصنيف المستوى الطبي للسؤال، وتحديد حساسيته من حيث كونه يتطلب تدخلًا متخصصًا أو مجرد معلومة عامة. ويأتي هنا دور تقنيات معالجة اللغة الطبيعية من أجل تحليل الأسئلة الطبية التي يكتبها المستخدمون بأشكال مختلفة.
وفي عام 2019، قدمت "غوغل" النموذج اللغوي "بيرت" (BERT) الذي يحسّن فهم السياق في الجملة من خلال تحليل علاقة الكلمات ببعضها بدلًا من معالجتها بشكل منفرد.
إعلانويعد هذا النموذج مفيدًا في تفسير الأسئلة الطبية التي تحتوي على مصطلحات متخصصة أو الأسئلة التي تكتب باللغة العامية.
وعندما يبحث شخص عن "ألم في الصدر مع دوخة"، يحدد النموذج اللغوي العلاقة بين الأعراض ويقترح أسبابًا محتملة، مثل وجود مشاكل قلبية أو انخفاض ضغط الدم، بدلًا من تقديم نتائج عامة.
ولا يقتصر دوره على استرجاع صفحات تحتوي على كلمات مطابقة، بل على فهم القصد الحقيقي خلف السؤال وتفسير السياق وتحليل النية بطريقة أقرب إلى التفكير البشري.
كذلك طوّرت "غوغل" أنظمة ذكاء اصطناعي قادرة على التمييز بين الاستخدامات المختلفة للمصطلح الطبي نفسه.
فعلى سبيل المثال، فإن كلمة "ورم" قد تشير إلى حالة خطيرة أو إلى ورم حميد، حسب السياق. وتعتمد الخوارزميات على تحليل آلاف الوثائق الطبية والدراسات العلمية لتعلم الفروق الدقيقة.
وكشفت "غوغل" عن نموذج "ميد-بالم" (Med-PaLM) المدرب خصيصًا على بيانات طبية، ويعدّ أحد النماذج الأولى القادرة على الإجابة عن أسئلة طبية معقدة بدقة توازي دقة الأطباء البشر في بعض الاختبارات.
ويستطيع هذا النموذج معالجة أشكال متنوعة من البيانات الطبية، بما في ذلك النصوص والصور، مثل الأشعة السينية والمسح الضوئي، وحتى المعلومات الجينية، مما يتيح فهمًا أكثر شمولًا لصحة المريض.
حرب خفية ضد التضليللا شك في أن واحدة من أخطر الإشكالات التي تواجه المستخدم اليوم هي تداخل المعلومات الطبية الصحيحة مع المحتوى غير الدقيق أو المضلل أو حتى الضار.
ومن أجل مواجهة هذا التحدي، تلعب الخوارزميات الجديدة دورًا محوريا في غربلة المحتوى وتصنيفه بالاعتماد على أنظمة تصنيف المصادر.
ولا تنظر هذه الأنظمة إلى شهرة الموقع أو عدد الزيارات فقط، بل تقيّم جملة مؤشرات، مثل وجود مراجعة طبية واضحة للمحتوى، والكشف عن اسم المؤلف وخبرته، وذكر المصادر العلمية الأصلية، وتوافق المعلومات مع الإرشادات الطبية الموصى بها عالميا.
وقد أدخلت الشركة تحسينات جوهرية على الخوارزميات التي تستخدم عند التعامل مع المحتوى الصحي، لتصنيف مدى ثقة المستخدم بالمعلومة قبل أن تظهر له.
وتعطي "غوغل" الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية، في حين تكتشف الخوارزميات المحتوى الذي يعتمد على نظريات مؤامرة أو ادعاءات غير مدعومة بدراسات.
كما تعتمد "غوغل" لمراجعة المحتوى الطبي على تعاونها مع منظمات، مثل "منظمة الصحة العالمية" (WHO) و"مايو كلينك" (Mayo Clinic) و"المركز الأميركي لمكافحة الأمراض" (CDC).
لا يمكن للذكاء الاصطناعي وحده أن يحل محل الخبرة البشرية في المجال الطبي. لذلك، تعتمد "غوغل" على شراكات إستراتيجية مع أطباء وباحثين لضمان توافق تقنياتها مع الممارسات السريرية الحالية.
وقد وظفت الشركة أطباء واختصاصيين يعملون بشكل مباشر مع فرق تطوير الذكاء الاصطناعي لمراجعة النتائج وتقديم ملاحظات علمية تسهم في تدريب النماذج.
وتستخدم هذه المراجعات لاحقًا لتحسين أداء أنظمة البحث وضبط استجابات الذكاء الاصطناعي بناء على الملاحظات الإكلينيكية الفعلية.
إعلانوساعدت هذه الشراكات في تقليل ظهور المعلومات غير الدقيقة بنسبة كبيرة في بعض المواضيع الطبية العالية الحساسية، مثل السرطان والاكتئاب وصحة الأطفال.
وبالتعاون مع جامعات مثل "هارفارد" و "ستانفورد"، تطور "غوغل" أدوات تساعد الأطباء في تشخيص الأمراض عبر دمج الذكاء الاصطناعي مع البيانات السريرية.
وتتيح "غوغل" لمنظمات طبية إمكانية تحديث المحتوى الطبي مباشرة في قاعدة بياناتها، بما يضمن وصول المستخدمين إلى أحدث التوصيات.
الحدود الأخلاقية لتدخل الذكاء الاصطناعي في الصحةرغم كل هذا التقدم، تعترف "غوغل" أن الذكاء الاصطناعي ليس بديلًا عن التشخيص الطبي.
وتحرص الشركة في جميع النتائج التي تتعلق بالصحة على إضافة عبارات تحذيرية تؤكد ضرورة مراجعة الطبيب المختص وعدم الاعتماد الكلي على المعلومات المقدمة.
كما وضعت سياسات تمنع استخدام منصاتها للإعلانات التي تروّج لعلاجات غير مثبتة علميا، أو التي تستغل مخاوف المرضى. وتُراجع هذه السياسات دوريا بالتعاون مع جهات رقابية وصحية عالمية.
التحديات والانتقاداتلا تزال جهود "غوغل" تواجه انتقادات، منها الخصوصية والتحيز الخوارزمي والمسؤولية القانونية والأخطاء والهلاوس التي قد تنتج عن الأنظمة الجديدة.
ويتطلب بناء النماذج الطبية الوصول إلى بيانات حساسة للمرضى، ويثير مخاوف قانونية وأخلاقية. وحذر بعض المراقبين من أن "غوغل" قد تستخدم بيانات صحية من دون موافقة المرضى.
وإذا كانت البيانات المستخدمة في التدقيق تمثل فئة ديمغرافية معينة، فإن ذلك يعني إهمال احتياجات مجموعات أخرى.
كما أن هناك نقاشات مستمرة حول من يتحمل مسؤولية الخطأ في التشخيص الافتراضي وتبعاته الصحية.
ختامًا، بين خوارزميات تصفية المحتوى، وفهم السياق الطبي، والتعاون مع الخبراء، تضع "غوغل" الذكاء الاصطناعي في قلب إستراتيجيتها لتقديم تجربة بحث صحي أكثر موثوقية وإنسانية.
وتطمح الشركة إلى أن تصبح شريكًا معرفيا في الرعاية الصحية الرقمية، مستندة إلى الخوارزميات الدقيقة، والمصادر الموثوقة، والشراكات مع القطاع الطبي.