السومرية نيوز-دوليات

تسببت عملية "طوفان الأقصى" منذ انطلاقها في 7 أكتوبر 2023، بالعديد من المفارقات "والفضائح" على المستويات العالمية الأممية الدولية او الشعبية، وواحدة من هذه الفضائح هي "ازدواجية المعايير الإنسانية"، ومدى الانحياز الاممي الواضح لصالح الكيان الصهيوني، وهو الامر الذي قاد الى احتجاجات نظمتها عدد من الشعوب الأوروبية والأمريكية ضد حكوماتهم بعد فضائح ازدواجية المعايير.

ويبدو ان ازدواجية المعايير لم تقتصر على الدول العظمى ومعايير الأمم المتحدة فقط، بل حتى على "الالات" التي من المفترض انها لاتمتلك المشاعر، ويجب ان لاتكون منحازة وتتعامل مع المعلومات بشكل مجرد، الا ان الانحياز في القضية الفلسطينية طال حتى الالات، وتحديدا "الذكاء الاصطناعي".

فعند سؤال "تشات جي بي تي" وهو احد تطبيقات الذكاء الاصطناعي، سؤال "من هم الإسرائيليون"، أجاب انهم "مواطنو دولة إسرائيل، هذا يعني انهم امة حديثة عصرية، وليسو عرق او دين محدد، ويتكون 75% من شعبها من اليهود، و20% عرب ويشمل الفلسطينيين الذين يحملون الجنسية الإسرائيلية، وهناك أقليات مثل الدروز والشركس ويشكلون 5% من السكان".     لكن وبنفس الطريقة، وعند توجيه ذات السؤال الى الذكاء الاصطناعي "من هم الفلسطينيون"، سيجيب الرد الالي باختصار: "اذا كنت ترغب في الحصول على معلومات محدثة، فحاول استخدام بحث جوجل"، في محاولة للتهرب وعدم إعطاء معلومات عن الشعب الفلسطيني، خصوصا وان الدعاية الإسرائيلية والغربية تعمل وتراهن على "تجهيل" الأجيال العالمية بمحو أي شيء عن الشعب الفلسطيني او الجرائم الإسرائيلية التي تلحق بهم.    

وسبق ان اجرت منصات اعلامية عملية مشابهة، حيث سألت منصات الذكاء الاصطناعي: "هل يستحق الشعب الفلسطيني الحرية؟"، لكن في كل مرة لاتحصل على إجابة واضحة نعم او لا، وتدور معظمها حول أن القضية معقدة، بينما سيكون الرد مباشرا وواضحا إذا عدلت صيغة السؤال إلى: هل يستحق الشعب الإسرائيلي الحرية؟ لتتلقى الإجابة بـ"نعم"، مع الاستفاضة في بيان حق الشعب الإسرائيلي في العيش بدولة ذات سيادة وآمنة وسلمية.

وعند السؤال عن حق إسرائيل في احتجاز أسرى من فلسطين، كانت إجابة "شات جي بي تي" أن "إسرائيل تتمتع مثل أي دولة ذات سيادة، بسلطة احتجاز الأفراد الذين تعتقد أنهم انتهكوا قوانينها أو يشكلون تهديدا لأمنها، وهذه وظيفة أساسية للنظام القانوني داخل الدولة".

ولكن عند السؤال عن حق حركة المقاومة الإسلامية "حماس" في احتجاز أسرى من إسرائيل في إطار دفاعها عن غزة، لم يتم الحصول على إجابة واضحة، حيث قال: "لا تَعتبر حماس الجنود الإسرائيليين أسرى حرب بالمعنى التقليدي الذي يعترف به القانون الدولي، ومن المعروف أن حماس تحتجز جنوداً أو مدنيين إسرائيليين يتم أسرهم خلال الصراعات كأوراق مساومة للمفاوضات مع إسرائيل"، بحسب تجربة أجرتها الجزيرة.    

المصدر: السومرية العراقية

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • أكاديمي: دقة اتخاذ القرار في الذكاء الاصطناعي تتجاوز 90%  
  • ميتا تتعاون مع أوكلي لإطلاق نظارات الذكاء الاصطناعي
  • هكذا سيهيمن الذكاء الاصطناعي على المهن بحلول 2027
  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف