نحو 40% من شركات اليابان لا تخطط لاستخدام الذكاء الاصطناعي
تاريخ النشر: 18th, July 2024 GMT
أظهر مسح لرويترز، الخميس، أن حوالي ربع الشركات اليابانية تطبق الذكاء الاصطناعي في أعمالها، في حين أن أكثر من 40 بالمئة من الشركات ليس لديها خطط للاستفادة من تلك التكنولوجيا المتطورة.
وطرح المسح الذي أجرته مؤسسة نيكي للأبحاث لصالح رويترز مجموعة من الأسئلة على 506 شركات في الفترة من الثالث إلى الثاني عشر من يوليو، واستجابت نحو 250 شركة لكن طلبت عدم الكشف عن أسمائها.
وقال حوالي 24 بالمئة من المشاركين في الاستطلاع إنهم أدخلوا بالفعل الذكاء الاصطناعي في أعمالهم وذكر 35 بالمئة أنهم يخططون للقيام بذلك، في حين أشارت النسبة المتبقية، وهي 41 بالمئة، إلى عدم وجود مثل هذه الخطط لديها، وهو ما يوضح الدرجات المتفاوتة للشركات اليابانية عند تبني الابتكار التكنولوجي.
وعند الاستفسار عن أهداف تطبيق الذكاء الاصطناعي في سؤال يسمح بإجابات متعددة، قال 60 بالمئة من المشاركين إنهم يحاولون التغلب على نقص العمالة بينما يهدف 53 بالمئة إلى خفض تكاليف العمالة وأشار 36 بالمئة إلى تسريع البحث والتطوير.
أما بالنسبة للعقبات التي تعترض تطبيق تلك التكنولوجيا، أشار مدير في إحدى شركات النقل في اليابان إلى "القلق بين الموظفين بشأن احتمال تسريح العاملين".
وأظهر المسح أن العقبات الأخرى تشمل الافتقار إلى الخبرة التكنولوجية والإنفاق الرأسمالي الكبير والمخاوف بشأن الموثوقية.
وجاء فيه أيضا أن 15 بالمئة من المشاركين تعرضوا لهجمات إلكترونية خلال العام الماضي، وتسعة بالمئة كان لديهم شركاء عمل تعرضوا لهجمات إلكترونية خلال الفترة نفسها.
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات الذكاء الاصطناعي اليابان اليابان شركات الذكاء الاصطناعي اقتصاد عربي الذكاء الاصطناعي اليابان اليابان الذکاء الاصطناعی بالمئة من
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.