لمنع وصول دول معادية إليها..بايدن يكشف قيوداً جديدة على تصدير تكنولوجيا الذكاء الاصطناعي
تاريخ النشر: 13th, January 2025 GMT
أعلن الرئيس الأمريكي المنتهية ولايته جو بايدن، قيوداً جديدة على تصدير تكنولوجيا الذكاء الاصطناعي، ومنها الرقائق ونماذج الذكاء الاصطناعي المستخدمة في البرمجيات.
وستعفى 120 دولة شريكة من هذه القيود، المعلنة قبل أسبوع واحد من مغادرة بايدن لمنصبه. وقالت وزيرة التجارة الأمريكية جينا رايموندو للصحافيين إن الولايات المتحدة هي الدولة الرائدة عالمياً في تطوير الذكاء الاصطناعي والرقائق اللازمة لهذه التكنولوجيا، مضيفة أن قيود التصدير تهدف إلى الحفاظ على هذا الوضع.وحذرت رايموندو من استخدام تقنيات الذكاء الاصطناعي التي تصنعها الولايات المتحدة من دول منافسة في عمليات محاكاة نووية، وتطوير الأسلحة البيولوجية، وتعزيز الجيوش.
وأضافت رايموندو أن إدارة بايدن تريد، بهذه الإجراءات الجديدة، منع معارضي الولايات المتحدة من وضع أيديهم على هذه التقنيات، وفي الوقت ذاته السماح للشركاء أيضاً بالاستفادة من هذه التكنولوجيا.
وفرضت الحكومة الأمريكية بالفعل قيوداً على صادرات شرائح الذكاء الاصطناعي إلى الصين، وهي الخطوة التي أثرت على شركة إنفيديا الأمريكية الرائدة في صناعة شرائح الذكاء الاصطناعي.
وتستخدم أنظمة شرائح إنفيديا في جميع أنحاء العالم للتدريب على التطبيقات التي تستخدم الذكاء الاصطناعي، وتستخدمها شركات ضخمة مثل غوغل، وميتا لملء مراكز البيانات بالكامل، وشركات ناشئة في الذكاء الاصطناعي مثل شركة أوبن إيه آي المطورة لتطبيق شات جي بي تي.
المصدر: موقع 24
كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب خليجي 26 إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات الحرب الأوكرانية الولايات المتحدة الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.