الاقتصاد نيوز - متابعة

ترى أكثر من نصف كبريات الشركات في الولايات المتحدة، الذكاء الاصطناعي كخطر محتمل على أعمالها، وفقاً لمسح جديد لتقارير الشركات يسلط الضوء على كيف يمكن للتكنولوجيا الناشئة أن تحقق تحولًا صناعيًا شاملاً.

بشكل عام، ذكرت 56% من شركات "فورتشن 500" الذكاء الاصطناعي باعتباره "عامل خطر" في أحدث تقاريرها السنوية، وفقاً لبحث أجرته Arize AI، وهي منصة بحثية تتعقب الإفصاحات العامة من الشركات الكبيرة.

يمثل الرقم قفزة مذهلة من 9% فقط في عام 2022.

على النقيض من ذلك، رأت 33 شركة فقط من أصل 108 شركات ناقشت الذكاء الاصطناعي التوليدي على وجه التحديد - التكنولوجيا القادرة على إنشاء نص يشبه الإنسان وصور واقعية - أن الذكاء الاصطناعي فرصة، بحسب صحيفة فايننشال تايمز البريطانية.

وقالت هذه الشركات في تقاريرها السنوية إن الفوائد المحتملة تشمل كفاءة التكلفة والفوائد التشغيلية وتسريع الابتكار. وأشار أكثر من ثلثي هذه المجموعة إلى الذكاء الاصطناعي التوليدي باعتباره خطراً.

وتُظهِر الإفصاحات أن تأثير الذكاء الاصطناعي التوليدي محسوس بالفعل عبر مجموعة من الصناعات وفي أغلبية أكبر الشركات المدرجة في الولايات المتحدة.

ازدهرت تكنولوجيا التعلم الآلي التنبؤية على مدار العامين الماضيين منذ إطلاق شركة أوبن إيه آي OpenAI لبرنامج الدردشة الشهير ChatGPT في نوفمبر/ تشرين الثاني 2022. ومنذ ذلك الحين، استثمرت شركات التكنولوجيا الكبرى عشرات المليارات من الدولارات لتطوير أنظمة الذكاء الاصطناعي القوية وتم إطلاق مئات الشركات الناشئة للاستفادة من فرصة التغيير.

تشمل مخاطر الذكاء الاصطناعي المذكورة في التقارير المالية السنوية هذا العام لشركات "فورتشن 500"، زيادة المنافسة، حيث تخشى غرف الاجتماعات من فشلها في مواكبة المنافسين الذين يستغلون التكنولوجيا بشكل أفضل.

وتشمل الأضرار المحتملة الأخرى قضايا السمعة أو التشغيل، مثل الوقوع في فخ المخاوف الأخلاقية بشأن التأثير المحتمل للذكاء الاصطناعي على حقوق الإنسان والتوظيف والخصوصية.

قالت أكثر من 90% من أكبر شركات الإعلام والترفيه في الولايات المتحدة إن أنظمة الذكاء الاصطناعي سريعة النمو تشكل مخاطرة تجارية هذا العام، وهو ما قالته كذلك 86% من شركات البرمجيات والتكنولوجيا.

أصدرت أكثر من ثلثي شركات الاتصالات المدرجة ضمن قائمة "فورتشن 500"، وأكثر من نصف شركات الرعاية الصحية والخدمات المالية وتجارة التجزئة والاستهلاك والفضاء الجوي نفس التحذير للمستثمرين.

على سبيل المثال، حذرت شركة نتفليكس، خدمة البث التي تبلغ قيمتها 290 مليار دولار، من أن المنافسين قد يكتسبون ميزة عليها من خلال نشر تطبيق الذكاء الاصطناعي، الأمر الذي من شأنه أن يؤثر على "قدرتنا على المنافسة بشكل فعال وقد تتأثر نتائج عملياتنا سلباً".

وقالت مجموعة الاتصالات "موتورولا": "قد لا يعمل الذكاء الاصطناعي دائماً على النحو المقصود، وقد تكون مجموعات البيانات غير كافية أو تحتوي على معلومات غير قانونية أو متحيزة أو ضارة أو مسيئة، مما قد يؤثر سلباً" على أرباحها وسمعتها.

مخاطر مالية وأخلاقية وقانونية وتكنولوجية

استشهدت بعض الشركات بالمخاطر المالية المتعلقة بالاستخدام المتطور لأنظمة الذكاء الاصطناعي، مثل التكاليف المتزايدة وغير المتوقعة.

قالت شركة سيلزفورس Salesforce، وهي شركة برمجيات تقدر قيمتها بنحو 250 مليار دولار، إن تبنيها للذكاء الاصطناعي "يطرح قضايا أخلاقية ناشئة" حول جمع البيانات والخصوصية.

وأضافت أن هوامش ربحها قد تتأثر بـ "عدم اليقين" حول تطبيقات الذكاء الاصطناعي الناشئة، مما يعني أنها قد تضطر على الأرجح إلى تخصيص استثمارات أكبر لتطوير واختبار نماذج جديدة.

كما كانت المخاطر القانونية والتنظيمية والأمن السيبراني المتعلقة بالذكاء الاصطناعي موضوعاً مشتركاً بين شركات "فورتشن 500".

حذرت شركة ديزني العملاقة للترفيه من أن "القواعد التي تحكم تطورات التكنولوجيا الجديدة" مثل الذكاء الاصطناعي التوليدي "تظل غير مستقرة"، مما قد يؤثر على نموذج أعمالها الحالي مثل تدفقات الإيرادات لاستخدام ملكيتها الفكرية، وكيفية إنشاء منتجات ترفيهية.

حذرت فياتريس Viatris، المجموعة الدوائية التي انفصلت عن شركة فايزر Pfizer، من أن استخدام حلول الذكاء الاصطناعي من الموظفين أو الموردين "قد يؤدي إلى الكشف العلني عن معلومات سرية"، بالإضافة إلى "الوصول غير المصرح به" إلى البيانات الشخصية المتعلقة بالموظفين أو المشاركين في التجارب السريرية أو غيرهم.

ومن بين الشركات القليلة التي روجت للذكاء الاصطناعي باعتباره فائدة محتملة كانت مجموعات الرعاية الصحية Quest Diagnostics وCigna، والتي قالت إن الذكاء الاصطناعي التوليدي يعمل على تحسين أجزاء من العمل مثل خدمة العملاء ومعالجة العينات وتحليل المطالبات، ووكالة الإعلان IPG، التي قالت إنها "تضيف الذكاء إلى إنشاء المحتوى عبر نطاق التسويق".

المصدر: وكالة الإقتصاد نيوز

كلمات دلالية: كل الأخبار كل الأخبار آخر الأخـبـار الذکاء الاصطناعی التولیدی فورتشن 500 أکثر من

إقرأ أيضاً:

خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود

في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".

أخبار ذات صلة الذكاء الاصطناعي يتنبأ بسكر الدم! تعليم نماذج الذكاء الاصطناعي ما لا تعرفه المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • هجوم حاد على راشد الماجد لاستخدامه الذكاء الاصطناعي في أغنيته الجديدة.. فيديو
  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • «شرطة دبي» تنظم ورشة تعريفية لتطبيقات الذكاء الاصطناعي
  • خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
  • تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
  • نقابات العمال الأمريكية تبدأ معركتها ضد الذكاء الاصطناعي
  • احذر فخ الذكاء الاصطناعي: مشهد وهمي بتقنية Veo 3 يثير الجدل
  • هل يوجد الذكاء الاصطناعي جيلا مسلوب المهارات؟
  • كيف استخدمت السعودية الذكاء الاصطناعي في إدارة موسم الحج؟
  • في عصر الذكاء الاصطناعي.. رسائل تهنئة بعيد الأضحى 2025