نصف الموظفين في العالم يتوقعون أن يقضي الذكاء الاصطناعي على أعمالهم
تاريخ النشر: 21st, April 2024 GMT
يمن مونيتور/قسم الأخبار
يتوقع الخبراء أن يتمكن الذكاء الاصطناعي يوما ما من أداء جميع وظائفنا بشكل أفضل، وهو ما يعني أن أغلب الوظائف البشرية أو كثير منها سوف تختفي مع مرور الوقت، وسوف تؤدي هذه التكنولوجيا إلى طفرة في نسب البطالة وتحل بدل الكثير من الموظفين في العالم.
ويتوقع الخبراء أن تتولى الآلات جميع وظائفنا في غضون قرن من الزمان فقط.
ونشرت جريدة «دايلي ميل» البريطانية استطلاعاً للرأي شمل 16 ألف عامل، ووجد الاستطلاع أن الكثير من الموظفين يعتقدون أن الذكاء الاصطناعي يمكنه فعل ما يقومون به بالفعل. وحسب تقرير «دايلي ميل» الذي اطلعت عليه «القدس العربي» فقد اعترف ما يقرب من نصف الموظفين بأن التكنولوجيا يمكن أن تتفوق عليهم في «المهام الروتينية» مع إيلاء اهتمام أفضل بالتفاصيل.
وتأتي هذه النتيجة بعد أسابيع فقط من تحذير أحد مراكز الأبحاث الرائدة من أن الذكاء الاصطناعي قد يستولي على أكثر من ثمانية ملايين وظيفة في بريطانيا إذا لم تتصرف الحكومة بسرعة.
ومن المتوقع أن تشهد «نهاية العالم للوظائف» الأدوار الإدارية والمبتدئة أولاً، ولكنها ستؤثر بشكل متزايد على أولئك الذين يتقاضون أجوراً أعلى حيث تصبح أكثر تعقيداً.
ووجد تقرير مستقبل العمل الصادر عن موقع الوظائف أن واحداً فقط من كل ثلاثة مشاركين كان واثقاً من أن الذكاء الاصطناعي سيكون له تأثير إيجابي على دورهم.
ومع ذلك، شعرت الأغلبية ـ تسعة من كل عشرة ـ بالثقة في قدرتهم على التكيف مع التغييرات خلال السنوات الخمس المقبلة.
وأخبر العمال عن حجم مسؤولياتهم اليومية التي أصبحت جاهزة بالفعل للأتمتة، حيث قال ثلاثة من كل خمسة أن الذكاء الاصطناعي يمكنه إجراء تحليل البيانات بشكل أفضل من البشر.
وكانت المهام الروتينية 48 في المئة والاهتمام بالتفاصيل 45 في المئة من المهام الأخرى التي شعر فيها العمال بأن الذكاء الاصطناعي سيكون له اليد العليا.
وفي حين أن الوظائف المتكررة مناسبة تماماً للذكاء الاصطناعي، إلا أن العمال قالوا إنهم ما زالوا يشعرون بالثقة بأنهم أفضل في التفكير النقدي والإبداع والذكاء العاطفي.
وينقسم الخبراء حول التأثير الذي سيحدثه الذكاء الاصطناعي على سوق العمل العالمي، لكن الجميع متفقون على أنه سيكون له تأثير مزلزل، وهو ما يحدث بالفعل.
وكشفت شركة «بريتيش تيليكوم» العام الماضي عن خطط لخفض عشرات الآلاف من الوظائف بحلول عام 2030 ومن المقرر استبدال حوالي 10 آلاف وظيفة بالتكنولوجيا.
وفي الوقت نفسه، أشارت دراسة استقصائية شملت أكثر من 2700 باحث في مجال الذكاء الاصطناعي في كانون الثاني/يناير، إلى أن الذكاء الاصطناعي يمكن أن يكون «أفضل وأرخص» من البشر في كل مهنة بحلول عام 2116.
ويأتي تاريخ التنبؤ قبل 50 عاماً تقريباً من نفس التنبؤ الذي تم إجراؤه في العام السابق، ما يسلط الضوء على مدى سرعة تحسنه.
ووجدت دراسة استقصائية حديثة أجريت على 600 من الرؤساء التنفيذيين العالميين أن العديد منهم يرسلون على عجل موظفين «مبتدئين» إلى معسكرات تدريب الذكاء الاصطناعي لتأهيلهم لمواكبة التطورات. واعترف المئات أيضاً أنهم يخشون أن تتولى التكنولوجيا دورهم يوماً ما.
وقال الكثيرون إنهم يستخدمون بالفعل أدوات مثل «تشات جي بي تي» سراً لمساعدتهم على القيام بمسؤولياتهم اليومية، واعتبروها عملهم الخاص. وقال نيك باكستر، الرئيس التنفيذي لمجموعة «آي إن غروب» إن العديد من الشركات سريعة النمو لا تزال تعاني من فجوة المهارات، وهي مشكلة تؤدي في النهاية إلى الإضرار بالنمو وإبطاء الابتكار.
وأضاف: «إذا أردنا بناء اقتصاد رقمي ديناميكي حقاً، تحتاج الشركات إلى الوصول إلى أحدث المواهب في مجال الذكاء الاصطناعي والتكنولوجيا، ما يسمح للشركات الطموحة بالوصول إلى إمكاناتها الكاملة».
وقال تريستان ويلكنسون، قائد القطاع العام في شركة «إيه أن دي ديجيتال» إن الشركات هي شريان الحياة لاقتصاد بريطانيا، ومع ذلك فإن الكثير منها يكافح من أجل مواكبة وتيرة التحول الرقمي.
وأضاف: «لا يمكن تحقيق النمو الاقتصادي المستدام إلا إذا حصلت الشركات على الدعم والمهارات المتخصصة التي تحتاجها لتبني المبادرات الرقمية على المدى الطويل».
وقال داني ستايسي، رئيس قسم ذكاء المواهب في شركة «إنديد» ببريطانيا: «من الطبيعي أن يشعر العمال بأن الذكاء الاصطناعي سيغير دورهم، خاصة أننا لم ندرك بالكامل بعد تأثير الذكاء الاصطناعي على مكان العمل».
وأضاف: «لكن الموظفين في المملكة المتحدة واثقون من قدرتهم على التكيف وهم بشكل عام أكثر تفاؤلاً بشأن تأثيرات التكنولوجيا على وظائفهم أكثر من تشككهم، مما يظهر أنهم مستعدون لأي تغيير يأتي في طريقهم».
القدس العربي
المصدر: يمن مونيتور
كلمات دلالية: البطالة التكنولوجيا الذكاء الأصطناعي الوظائف أن الذکاء الاصطناعی
إقرأ أيضاً:
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.
بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.
فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.
والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.
ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».
ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.
إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.
بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).