دراسة: الذكاء الاصطناعي لن يكون سببا في القضاء على الوظائف
تاريخ النشر: 27th, August 2023 GMT
يبدو أن المخاوف من تأثير الذكاء الاصطناعي في القضاء على الوظائف، قد تكون مبالغ فيها، فقد خلصت دراسة أعدتها منظمة العمل الدولية مؤخرا إلى أن الذكاء الاصطناعي التوليدي لن يكون سببا في القضاء على الوظائف، بل سيكون أداة مكملة للكثير منها.
وأشارت الدراسة إلى أن التغيير سيكون على صعيد جودة الأعمال والوظائف حيث سيكون هناك تركيز واستقلالية أكبر أثناء أدائها باستخدام أدوات الذكاء الاصطناعي التوليدي.
وبحسب مركز إعلام الأمم المتحدة، زاد الحديث عن مزاحمة الذكاء الاصطناعي للبشر واستبدالهم في مجالات مختلفة، بصورة كبيرة في الفترة الماضية مع اتساع رقعة استخدام أدواته وخصوصا الذكاء الاصطناعي التوليدي الذي بدأ يبزغ نجمه منذ عام 2020.
وخلصت دراسة منظمة العمل الدولية إلى أن التأثيرات الاجتماعية والاقتصادية للذكاء الاصطناعي التوليدي ستعتمد إلى حد كبير على كيفية إدارة انتشاره، داعية إلى ضرورة صياغة سياسات تدعم عملية انتقالية منظمة ونزيهة وتشاورية.
كما شددت الدراسة على أهمية التدريب على المهارات، والحماية الاجتماعية الكافية، وإسماع صوت العمال لإدارة عملية التحول نحو استخدام تقنيات الذكاء الاصطناعي، وإلا فإن عددا قليلا من البلدان المستعدة جيدا والمشاركين في السوق سيحصدون ثمار تلك التقنيات الجديدة.
يذكر أن في صيف 2023 خصص مجلس الأمن الدولي جلسة لبحث مسألة الذكاء الاصطناعي، وشهدت مشاركة الأمين العام للأمم المتحدة، أنطونيو غوتيريش حيث أكد في كلمته للمجتمعين أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة، مضيفا أن هذه التقنية قادرة على تسريع التنمية العالمية بما في ذلك مراقبة أزمة المناخ وتحقيق طفرات في مجال الأبحاث الطبية.
كما شدد الأمين العام للأمم المتحدة على أن التطور المتسارع للذكاء الاصطناعي التوليدي، يجب ألا يغيّب الضرر الذي سببته التقنيات الرقمية قائلا "إن نشر الكراهية والأكاذيب عبر الفضاء الرقمي يسبب خطرا جسيما الآن، ويؤجج الصراع والموت والدمار الآن، ويهدد الديمقراطية وحقوق الإنسان الآن ويضر بالصحة العامة والجهود المناخية الآن
ومن أجل تنظيم عمل الذكاء الاصطناعي، رحب الأمين العام للأمم المتحدة بدعوات بعض الدول الأعضاء لتأسيس كيان دولي لمراقبة عمل تلك التقنية الجديدة، مؤكدا أن الهدف الرئيسي لهذا الكيان هو "دعم الدول لتحقيق الاستفادة القصوى من الذكاء الاصطناعي من أجل المنفعة العامة، والتقليل من المخاطر الحالية والمحتملة، وتأسيس وإدارة آليات متفق عليها دوليا للرقابة والحوكمة".
المصدر: سكاي نيوز عربية
كلمات دلالية: ملفات ملفات ملفات الذكاء الاصطناعي الذكاء الاصطناعي التقنيات الذكاء الاصطناعي خطر الذكاء الاصطناعي الذكاء الاصطناعي الذكاء الاصطناعي التقنيات تكنولوجيا الاصطناعی التولیدی الذکاء الاصطناعی
إقرأ أيضاً:
تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
أسس فريق من باحثي معهد ماساتشوستس للتكنولوجيا (MIT)، Themis AI لقياس عدم اليقين في نماذج الذكاء الاصطناعي ومعالجة فجوات المعرفة.
تُقدم أنظمة الذكاء الاصطناعي، مثل ChatGPT، إجاباتٍ تبدو معقولة لأي سؤال قد يطرح عليها. لكنها لا تكشف دائمًا عن ثغراتٍ في معارفها أو جوانبَ عدم اليقين فيها.
وقد تُسفر هذه المشكلة عن عواقب وخيمة مع تزايد استخدام أنظمة الذكاء الاصطناعي في مجالاتٍ مثل تطوير الأدوية، وقيادة السيارات ذاتية القيادة.
والآن، تُساعد Themis AI في تحديد عدم اليقين في النماذج وتصحيح النتائج قبل أن تُسبب مشاكل أكبر. ويمكن لمنصة Capsa التابعة للشركة العمل مع أي نموذج تعلُّم آلي للكشف عن النتائج غير الموثوقة وتصحيحها في ثوانٍ. وتعمل المنصة عن طريق تعديل نماذج الذكاء الاصطناعي لتمكينها من اكتشاف الأنماط في معالجة البيانات التي تُشير إلى الغموض أو عدم الاكتمال أو التحيز.
تقول دانييلا روس، المؤسس المشارك لشركة Themis AI والأستاذة في معهد ماساتشوستس للتكنولوجيا، والتي تشغل أيضًا منصب مديرة مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا "الفكرة هي أخذ نموذج، ودمجه في Capsa، وتحديد أوجه عدم اليقين وأنماط فشل النموذج، ثم تحسينه"، مضيفة "نحن متحمسون لتقديم حل يُحسّن النماذج ويضمن عملها بشكل صحيح".
أسست روس شركة Themis AI عام 2021 بالتعاون مع زميلي بحث سابقين في مختبرها. ومنذ ذلك الحين، ساعدوا شركات الاتصالات في تخطيط الشبكات وأتمتتها، وساعدوا شركات النفط والغاز على استخدام الذكاء الاصطناعي لفهم الصور الزلزالية، ونشروا أبحاثًا حول تطوير روبوتات دردشة أكثر موثوقية.
يقول ألكسندر أميني، أحد الرؤساء المشاركين "نريد تمكين الذكاء الاصطناعي في التطبيقات الأكثر أهمية في كل قطاع". ويضيف "رأينا جميعًا أمثلة على هلوسة الذكاء الاصطناعي أو ارتكابه للأخطاء. ومع اتساع نطاق استخدام الذكاء الاصطناعي، قد تؤدي هذه الأخطاء إلى عواقب وخيمة. يُمكّن ثيميس أي ذكاء اصطناعي من التنبؤ بأخطائه قبل وقوعها".
مساعدة النماذج على معرفة ما تجهله
يبحث مختبر روس في عدم اليقين في النماذج منذ سنوات. في عام 2018، حصلت على تمويل لدراسة موثوقية حل قيادة ذاتية قائم على التعلم الآلي. تقول روس "هذا سياق بالغ الأهمية للسلامة، حيث يُعد فهم موثوقية النموذج أمرًا بالغ الأهمية".
في عمل منفصل، طوّر روس وأميني وزملاؤهما خوارزمية يمكنها اكتشاف التحيز العنصري والجنسي في أنظمة التعرف على الوجه، وإعادة وزن بيانات تدريب النموذج تلقائيًا، مما يُظهر أنها أزالت التحيز. عملت الخوارزمية من خلال تحديد الأجزاء غير المُمثلة من بيانات التدريب الأساسية، وتوليد عينات بيانات جديدة ومتشابهة لإعادة توازنها.
في عام 2021، أظهر المؤسسون المشاركون إمكانية استخدام نهج مماثل لمساعدة شركات الأدوية على استخدام نماذج الذكاء الاصطناعي للتنبؤ بخصائص الأدوية المرشحة. وأسسوا شركة Themis AI في وقت لاحق من ذلك العام.
تؤكد روس "قد يوفر توجيه اكتشاف الأدوية الكثير من المال. كانت هذه هي حالة الاستخدام التي جعلتنا ندرك مدى قوة هذه الأداة".
تعمل Themis AI اليوم مع شركات في مجموعة متنوعة من الصناعات، والعديد من هذه الشركات تبني نماذج لغوية ضخمة. باستخدام Capsa، تتمكن هذه النماذج من تحديد مستوى عدم اليقين الخاص بها لكل ناتج.
يعتقد فريق "ثيميس" للذكاء الاصطناعي أن الشركة في وضع جيد لتحسين أحدث تقنيات الذكاء الاصطناعي المتطورة باستمرار.