الذكاء الاصطناعي يهدّد 5% من الوظائف في 2024
تاريخ النشر: 19th, January 2024 GMT
ذكر تقرير نشرته شبكة "سي إن بي سي" الأمريكية أن رؤساء تنفيذيين يتوقعون أن يخفض الذكاء الاصطناعي 5% من القوى العاملة خلال عام 2024.
وأظهر مسح جديد أن بعض الرؤساء التنفيذيين يستعدون لاستخدام الذكاء الاصطناعي التوليدي في أعمالهم لتوفير الوقت وتحقيق مكاسب هذا العام، على الرغم أن ذلك يأتي على حساب الاحتفاظ بموظفيهم.
وفي التقرير السنوي الـ27 لـPwC، استطلعت شركة الاستشارات آراء 4702 من الرؤساء التنفيذيين الذين يقودون شركات كبيرة وصغيرة على مستوى عدد من الصناعات في 105 دول، وذلك من أجل فهم كيف يعيدون اكتشاف أعمالهم في المستقبل القريب.
وحينما يتعلق الأمر بالذكاء الاصطناعي التوليدي، يقول العديد من الرؤساء التنفيذيين أنهم سيتبنون تلك التكنولوجيا كفرصة لزيادة الإيرادات وتعزيز الكفاءة.
لكن المكاسب التي تأتي من وراء تلك التكنولوجيا قد تعرض موظفي الشركات للخطر هذا العام.
ووفقًا لـPwC، فإن بعض فوائد الكفاءة هذه ستأتي على الأرجح على حساب خفض القوى العاملة، على الأقل على المدى القصير، إذ يتوقع ربع الرؤساء التنفيذيون خفض عدد الموظفين 5% في 2024 بسبب تلك التكنولوجيا.
وأشار التقرير إلى أن الذكاء الاصطناعي التوليدي قد يؤثر على الشركات في صناعات محددة أكثر من غيرها. ومن المتوقع أن تقود قطاعات الإعلام والمصارف والتأمين أكبر الخسائر في عدد الموظفين لحساب الذكاء الاصطناعي.
ويرجع ذلك جزئيًا إلى أن أدوات مثل ChatGPT قد تتمكن من القيام بوظائف محددة مرتبطة بإنشاء المحتوى وخدمة العملاء.
كما من المتوقع أن يخفض الذكاء الاصطناعي حاجة الشركات إلى توظيف المزيد من الموظفين.
المصدر: البوابة نيوز
كلمات دلالية: الذكاء الاصطناعي البريد القوى العاملة الذكاء الاصطناعي التوليدي الموظفين الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.