أعلن الفاتيكان، الثلاثاء، عن وثيقة حول رؤيته للذكاء الاصطناعي وأثره على البشرية.

وشددت الوثيقة على ضرورة "اتخاذ موقف واضح ضد جميع تطبيقات التكنولوجيا التي تهدد جوهريا حياة وكرامة الإنسان" لتجنب وقوع البشرية في "دوامات التدمير الذاتي".

الوثيقة بعنوان “Antiqua et nova” (القديم والجديد)، التي عملت عليها دائرتا العقيدة والإيمان والثقافة والتعليم، وحظيت بموافقة البابا في 14 كانون الثاني/ يناير، على الرغم من اعترافها بأن الذكاء الاصطناعي يمكن أن يقدم "ابتكارات مهمة" في مجالات مختلفة، إلا أنها تحذر من مخاطر تفاقم حالات التهميش والتمييز و"الفجوة الرقمية وعدم المساواة الاجتماعية"، بحسب وكالة "آكي" الإيطالية للأنباء.




ورأت الوثيقة أن ما يثير "المخاوف الأخلاقية" على وجه الخصوص هو حقيقة أن "معظم السلطة على تطبيقات الذكاء الاصطناعي الرئيسية تتركز في أيدي عدد قليل من الشركات القوية"، بحيث ينتهي الأمر بهذه التكنولوجيا إلى التلاعب بها لتحقيق "مكاسب شخصية أو مؤسسية"، أو "توجيه الرأي العام نحو مصالح قطاع معين".

وأشارت الوثيقة إلى أنه وكما لاحظ البابا، فإن "استخدام كلمة الذكاء في حد ذاته"، في إشارة إلى الذكاء الاصطناعي "مضلل ويخاطر بإهمال ما هو أثمن في الشخص البشري".

وتعبر الوثيقة (35 صفحة مقسمة إلى 117 فقرة) عن القلق المرتبط بحقيقة مفادها أن إمكانات الذكاء الاصطناعي قد تزيد من موارد الحرب "بما يتجاوز نطاق السيطرة البشرية"، مما يؤدي إلى تسريع "سباق التسلح المزعزع للاستقرار مع عواقب مدمرة لحقوق الإنسان".

وكان البابا فرنسيس قد حذر قبل أيام في رسالة رئيس المنتدى الاقتصادي العالمي بمناسبة اللقاء السنوي في دافوس بسويسرا، من "إنَّ التطورات التكنولوجية التي لا تحسّن حياة الجميع، بل تخلق أو تزيد من عدم المساواة والصراعات، لا يمكنها أن تسمى تقدمًا حقيقيًا. ولذلك، يجب أن يوضع الذكاء الاصطناعي في خدمة تنمية سليمة وإنسانية واجتماعية وتكاملية".


كما أشار البابا فرنسيس إلى أن تصميم الذكاء الاصطناعي "تم لمحاكاة الذكاء البشري الذي صممه، الأمر الذي أثار هكذا مجموعة فريدة من الأسئلة والتحديات"، وعلى عكس العديد من الاختراعات البشرية الأخرى، "يتم تدريب الذكاء الاصطناعي على نتائج الإبداع البشري، الأمر الذي يسمح له بتوليد مصنوعات جديدة بدرجة من المهارة والسرعة التي غالبًا ما تحاكي أو تتجاوز القدرات البشرية، مما يثير مخاوف مهمة حول تأثيره على دور البشرية في العالم".

وأردف: "كذلك، فإن النتائج التي يستطيع الذكاء الاصطناعي تحقيقها لا يمكن تمييزها تقريبًا عن نتائج البشر، مما يثير تساؤلات حول تأثيرها على أزمة الحقيقة المتزايدة في المنتدى العام".

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة سياسة عربية مقابلات حقوق وحريات سياسة دولية سياسة دولية الفاتيكان الذكاء الاصطناعي الفاتيكان حروب الذكاء الاصطناعي المزيد في سياسة سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • جنبلاط تلقى رسالة شكر من الفاتيكان على التهنئة بانتخاب البابا لاوون الرابع عشر
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • «الموارد البشرية» توضح طريقة الحصول على بطاقة امتياز الرقمية لكبار السن
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • الداخلية السورية توضح حول السويداء
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي