أستراليا تحظر برنامج الذكاء الاصطناعي الصيني “ديب سيك” وتؤكد أنه خطر أمني يهدد الحكومة
تاريخ النشر: 5th, February 2025 GMT
أعلنت الحكومة الأسترالية، اليوم الأربعاء، حظر استخدام برامج الذكاء الاصطناعي التابعة لشركة “ديب سيك” الصينية على جميع الأجهزة الحكومية، وذلك بسبب “مخاطر أمنية غير مقبولة”، وفق ما أفادت به وزيرة الداخلية الأسترالية، ستيفاني فوستر.
وأوضحت فوستر، في بيان رسمي صدر أمس الثلاثاء، أن هذا القرار جاء بعد تحليل شامل للمخاطر والتهديدات، حيث تبين أن منتجات وتطبيقات “ديب سيك” تشكل تهديدًا أمنيًا على الحكومة الأسترالية.
ويأتي هذا الإجراء في ظل تزايد المخاوف العالمية بشأن التكنولوجيا الصينية وتأثيراتها على الأمن السيبراني، خاصة بعد أن أطلقت “ديب سيك” روبوت محادثة متطورًا أثار اهتمامًا واسعًا بقدرته على منافسة البرمجيات الأمريكية المشابهة ولكن بتكلفة أقل.
وكانت أستراليا أحدث المنضمين إلى قائمة الدول التي تحقق في سياسات “ديب سيك”، حيث سبقتها كوريا الجنوبية، التي طلبت توضيحات من الشركة حول كيفية تعاملها مع بيانات المستخدمين، كما اتخذت فرنسا وإيرلندا إجراءات مماثلة.
يذكر أن هذا القرار قد يزيد من حدة التوتر بين أستراليا والصين، وسط تصاعد المخاوف بشأن الأمن الرقمي وخصوصية البيانات على المستوى الدولي.
المصدر: مملكة بريس
كلمات دلالية: أستراليا أمن سيبراني إيرلندا الذكاء الاصطناعي الصين برامج تهديدات توتر دیب سیک
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.