صحيفة عاجل:
2025-08-03@14:20:11 GMT

170 مليون وظيفة تنتجها تحولات الذكاء الاصطناعي

تاريخ النشر: 3rd, August 2025 GMT

يوما بعد آخر تزداد المخاوف المتعلقة بتأثير الذكاء الاصطناعي على قطاع التوظيف ومستقبل سوق العمل، حيث تشير أحدث التقارير إلى أن 59% من العمال يحتاجون إلى تحسين مهاراتهم، أو إعادة تأهيلها بحلول 2030.

ووفقا لما نقل عن المنتدى الاقتصادي العالمي، أن من بين هؤلاء يحتاج 29% إلى تحسين مهاراتهم بما يتلائم مع أدوارهم الحالية، في حين قد يعاد توزيع 19% من القوى العاملة فى مختلف المؤسسات، لكن 11% يواجهون خطر فقدان وظائفهم تماما.

وأصبح محو الأمية الرقمية في صدارة قائمة المهارات الأساسية يليهم التفكير النقدي والأخلاقي، والتواصل وإدارة التغيير، وبحسب المنتدى ستنشأ التحولات الهيكلية 170 مليون وظيفة جديدة بحلول عام 2030، أي ما يعادل 14% من القوة العاملة الحالية.

وتتطور الوظائف التي تستعين بالذكاء الاصطناعي بشكل أسرع بنسبة 66% عن غيرها، وتعد التكنولوجيا أكثر المجالات التي يعتمد موظفيها على الذكاء الصناعي التوليدي بنسبة 88%، يليها الخدمات المهنية بـ80%، ثم الصناعات المتقدمة وكذلك الإعلام والاتصالات بنسبة 79%، وأخيرا السلع الاستهلاكية والتجزئة بنسبة 68%.

الذكاء الاصطناعيأخبار السعوديةقطاع التوظيفمحو الأمية الرقميةقد يعجبك أيضاًNo stories found.

المصدر: صحيفة عاجل

كلمات دلالية: الذكاء الاصطناعي أخبار السعودية قطاع التوظيف محو الأمية الرقمية

إقرأ أيضاً:

كيف يمكن للصحفيين اكتشاف التحيز في الذكاء الاصطناعي؟

سلط معهد رويترز لدراسة الصحافة الضوء على معضلة التحيّز في الذكاء الاصطناعي محذرا من مخاطره، لا سيما مع بدء 49% من المؤسسات الإخبارية استخدام نماذج الذكاء الاصطناعي، وفق أحدث استطلاع أجرته الرابطة العالمية للصحف وناشري الأخبار "ون إفرا" (WAN-IFRA).

وضمن تقرير مطوّل، حاولت راما شارما المستشارة والمدربة التنفيذية بالمعهد تقديم إجابات حول هذه المعضلة، عبر التحدث إلى 18 صحفيا وخبيرا إعلاميا وتقنيا وأكاديميا.

اقرأ أيضا list of 2 itemslist 1 of 2إعلامlist 2 of 2أكسيوس تجذب الجمهور بأسلوب تحريري فريدend of list

ويقول ماتياس هولويغ أحد خبراء برامج الذكاء الاصطناعي في كلية سعيد للأعمال بجامعة أكسفورد إن "التحيز سمة، وليس عيبا" في هذه الأدوات، موضحا أن أي نموذج ذكاء اصطناعي سيعكس التحيزات الموجودة بالبيانات التي جرى تدريبه عليها.

ويستمد "شات جي بي تي" مثلاً قرابة 60% من مواده التدريبية، من محتوى الويب في ويكيبيديا ومواقع أخرى مماثلة، بالإضافة إلى الكتب الرقمية والأوراق الأكاديمية. في حين أن النموذج الذي يتعلم من هذه المصادر سيرث بطبيعة الحال تحيزاتها.

وتحذر شارما هنا من حدوث ما وصفته بـ"التحيز الضار" أو "التحيز الخوارزمي" والذي يحدث عندما يتعلم النموذج من بيانات غير عادلة أو متحيزة بالفعل، لينتهي الأمر بعملية التعلم الطبيعية للذكاء الاصطناعي إلى عكس التحيزات المجتمعية القائمة وتضخيمها من المعلومات التي يتم تزويده بها، مما يؤدي إلى نتائج تعاقب أفرادا أو مجموعات معينة.

معهد رويترز لدراسات الصحافة دأب على إصدار تقارير سنوية عن الصحافة وتأثير التكنولوجيا عليها (الجزيرة)

ويمكن أن تظهر هذه الأخطاء في أي مرحلة من مراحل بناء النموذج، بدءا من جمع البيانات وتصميم النموذج وحتى النشر.

خبير تقني: التحيز يأتي من باحثين غربيين

ويحذر بيتر سلاتري -الذي يدير منصة مفتوحة المصدر تساعد الناس على فهم مخاطر الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا- من ظهور أضرار جديدة يوميا، كما يشعر بقلق إزاء طرق يمكن أن تؤثر بها هذه التقنيات على دول الجنوب.

إعلان

ويضيف "لقد لاحظت وجود تحيز في الكثير من الأدبيات التي ندرجها في قاعدة بياناتنا، حيث إنها تأتي في الغالب من باحثين في مؤسسات غربية نخبوية".

وتقول معدّة تقرير معهد رويترز إنه ليس من السهل معالجة التحيز في أنظمة الذكاء الاصطناعي، لافتة إلى أن الجهود حسنة النية قد تأتي بنتائج عكسية أحيانا، وقد تجلى ذلك عام 2024 عندما أنتج مولد الصور "جيميني" من غوغل صورا لنازيين سود، وفايكنغ من الأميركيين الأصليين، فيما بدا أنه محاولة لتنويع المخرجات، وقد أجبرت ردود الفعل الغاضبة آنذاك غوغل على تعليق هذه الميزة مؤقتا.

وتبين شارما أن إحدى الطرق المقترحة -التي تلقتها أثناء حضورها ورشة عمل تقنية بمعهد "آلان تورينغ" في لندن- هي اتخاذ نهج استباقي للمراقبة عند إنشاء أنظمة جديدة للذكاء الاصطناعي، يشمل تشجيع المهندسين وفرقهم على إضافة بيانات وصفية، في كل مرحلة من مراحل عملية إنتاج الذكاء الاصطناعي، بما في ذلك معلومات عن الأسئلة المطروحة، والتدابير التخفيفية المطبقة لتتبع القرارات المتخذة.

أنواع التحيز بالذكاء الاصطناعي

وشارك الباحثون الذين تحدثوا لـ"شارما" إلى 3 فئات من التحيزات التي قد تحدث، إلى جانب تلميحات للمساعدة في التخفيف منها:

1/تحيزات الإحصائية

وتنشأ عن عيوب في طريقة جمع البيانات أو أخذ العينات أو معالجتها، مما يؤدي إلى أخطاء منهجية. ومن الأنواع الشائعة، التحيز الناجم عن البيانات المفقودة، حيث تكون بعض المجموعات أو المتغيرات ممثلة تمثيلا ناقصا أو غائبة تماما من مجموعة البيانات.

فمثلا: مجموعة بيانات صحية تتضمن بيانات عن الرجال، وتغفل مؤشرات حول صحة المرأة (كالحمل أو التغيرات الهرمونية) قد تفشل نماذج الذكاء الاصطناعي المدربة على هذه المجموعة من البيانات في التعرف على احتياجات صحة المرأة، أو الاستجابة لها بشكل مناسب.

2/ تحيزات معرفية

وتعكس أنماط التفكير البشري التي تحيد عن الحكم العقلاني، فعندما تؤثر هذه التحيزات على كيفية اختيار البيانات أو تفسيرها أثناء تطوير النموذج، يمكن أن تصبح جزءا لا يتجزأ من أنظمة الذكاء الاصطناعي.

ويبيّن التقرير أن أحد الأشكال الشائعة هنا هو التحيز التأكيدي، ويقصد به الميل إلى البحث عن المعلومات التي تتوافق مع المعتقدات أو النظرة العالمية المسبقة أو تفضيلها.

وعلى سبيل المثال: قد يتم تصميم نظام توصية الأخبار باستخدام بيانات تم تنسيقها من قبل محررين ذوي ميول سياسية معينة. وإذا عزز النظام المحتوى الذي يتوافق مع هذه النظرة للعالم مع استبعاد وجهات النظر البديلة، فقد يؤدي ذلك إلى تضخيم التحيز التأكيدي لدى المستخدمين.

3/ تحيزات اجتماعية

وتنبع من التفاوت داخل الأنظمة أو الافتراضات الثقافية المتأصلة في البيانات، وغالبا ما تعكس الظلم التاريخي أو الممارسات التمييزية.

فمثلا: قد تتعلم أداة توظيف تعتمد على الذكاء الاصطناعي ومدربة على بيانات التوظيف التاريخية تفضيل المرشحين الذكور لشغل مناصب قيادية، إذا كانت قرارات التوظيف السابقة تفضل الرجال، مما يعزز المعايير الجنسانية القديمة ويستبعد النساء المؤهلات.

وأشار التقرير إلى أن البيانات القديمة يمكن أن تكون ضارة بقدر البيانات المفقودة. ونقل عن فلوران دودنس وهو صحفي سابق يعمل الآن مع شركة فرنسية متخصصة بالذكاء الاصطناعي قوله "إذا لم تتطور البيانات، يمكن أن ينتشر المحتوى الضار والتحيز خارج سياق مجموعة البيانات الأصلية، مما يؤدي إلى تفاقم الفجوات".

خطر التحيز المتعمد

ويحذر هولويج، الخبير في كلية سعيد للأعمال بجامعة أكسفورد من التغذية السريعة لنموذج الاصطناعي، وتسميم مجموعات البيانات، لافتا إلى أنها بمثابة أشكال من التحيز المتعمد.

غرف الأخبار وخاصة المؤسسات الكبرى تشهد مجهودات لدمج الذكاء الاصطناعي بالعمل (شترستوك)

والتغذية السريعة هي إضافة نص مخفي أو تلاعب بمدخلات لتضليل الذكاء الاصطناعي وتجاهل تعليماته أو التصرف بطريقة غير مقصودة. ويقصد بتسميم قاعدة البيانات إدراج معلومات كاذبة أو متحيزة في بيانات التدريب لتشويه سلوك الذكاء الاصطناعي أو مخرجاته، ومن الأمثلة على ذلك وضع تقييمات مزيفة للمنتجات.

إعلان

وقد بدأت بعض المؤسسات الإعلامية في الاستجابة لهذه المخاطر، حيث عينت الإذاعة البافارية في ميونخ مراسلة متخصصة في المساءلة الخوارزمية، للتحقيق في تأثير تكنولوجيا الذكاء الاصطناعي على المجتمع.

وأوضح التقرير أن بعض المبتكرين حاولوا إعادة تصور دور الذكاء الاصطناعي في الصحافة ليس فقط كأداة للإنتاجية، ولكن كعدسة لزيادة الوعي الذاتي.

ففي جامعة فلوريدا، ثمة فريق لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد في تحديد أنواع التحيز التي تظهر أثناء إنتاج الأخبار، وتعاون الفريق مع أخصائي لغويات وعلماء حاسوب من الجامعة، لدراسة كيفية صياغة الأخبار الهامة في مختلف وسائل الإعلام.

وخرج الفريق بنتائج أولية اعتبرت أن "الأفعال والصفات المرتبطة بمتظاهري حركة حياة السود مهمة" كانت كلمات نارية مثل "تشعل" و"تنفجر" و"تشعل شرارة" حتى عندما كانت المسيرات سلمية.

وفي الوقت نفسه، استخدمت التغطية الأميركية للاحتجاجات في الجامعات لغة أكثر عاطفية لوصف الخسائر الإسرائيلية مقارنة بمعاناة الفلسطينيين.

وفي ختام تقريرها، أكدت المستشارة بمعهد رويترز لدراسة الصحافة أن القضاء على التحيز قد يكون مستحيلا، لكن يمكن فهم هذه القضايا والتخفيف من حدتها من خلال فرق متعددة التخصصات ذات وجهات نظر واسعة.

مقالات مشابهة

  • الذكاء الاصطناعي الحواري .. طفرة في منظومات العمل الرقمية
  • كيف يمكن للصحفيين اكتشاف التحيز في الذكاء الاصطناعي؟
  • أبل تلمح إلى استثمار كبير في الذكاء الاصطناعي
  • ورقة بحثية: الذكاء الاصطناعي قد يدمر البشرية بحلول 2027
  • بنسبة تفوق 80%.. ChatGPT يتصدر عالم الذكاء الاصطناعي بلا منازع
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي (2/5)
  • قناطر ديروط الجديدة.. سويلم: تحسين عملية الري لـ1.60 مليون فدان بالصعيد
  • آبل تلمح لصفقات ضخمة لتجاوز تأخرها في سباق الذكاء الاصطناعي
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا