رغم الدفاع عن نظامها.. بلومبرج تواجه مشكلات مع ملخصات الذكاء الاصطناعي
تاريخ النشر: 30th, March 2025 GMT
أطلقت وكالة بلومبرج نيوز في يناير الماضي نظامًا يعتمد على الذكاء الاصطناعي لتوليد ملخصات تلقائية لمقالاتها، بهدف مساعدة القراء على استيعاب المعلومات بسرعة واتخاذ قرارات حول المقالات التي تستحق القراءة بعمق.
لكن مع مرور الوقت، اضطرت الوكالة إلى إزالة عدة ملخصات بسبب أخطاء في المحتوى، مما أثار تساؤلات حول دقة هذه التقنية في بيئة الأخبار الاحترافية.
كشف بحث على Google عن 20 حالة على الأقل تم فيها حذف ملخصات المقالات بعد نشرها بسبب أخطاء.
من بين هذه الحالات، ملخصان لمقالات تتعلق بسياسة الرسوم الجمركية للرئيس الأمريكي السابق دونالد ترامب تم سحبهما، أحدهما لعدم تحديد موعد تطبيق الرسوم، والآخر بسبب "عدم الدقة" دون تحديد التفاصيل.
مقال اخر عن بيع مصانع الصلب تم تعديل ملخصه بعد أن أشار بشكل خاطئ إلى أن نقابة عمال الصلب (United Steelworkers) كانت تعارض خطط المالك، في حين أن ذلك لم يكن صحيحًا.
رغم هذه الأخطاء، أكدت بلومبرج أن 99% من الملخصات تفي بالمعايير التحريرية، وأن حالات التصحيح والتعديلات هي استثناءات نادرة.
كما أوضحت أن الصحفيين لديهم سيطرة كاملة على الملخصات، سواء قبل النشر أو بعده، ويمكنهم إزالة أي ملخص لا يرقى إلى مستوى الدقة المطلوبة.
الشفافية والمستقبلأكدت بلومبرج أنها شفافة تمامًا بشأن أي تحديثات أو تصحيحات يتم إجراؤها على المقالات، وأن فريق الخبراء التابع لها يواصل تحسين أداء النموذج اللغوي المستخدم في التلخيص.
ومع ذلك، تظل هذه التحديات بمثابة تحذير مهم حول الاعتماد الكامل على الذكاء الاصطناعي في الصحافة، حيث قد يكون دقيقًا في معظم الأحيان، لكنه لا يزال معرضًا للخطأ.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي الذكاء الاصطناعي لتوليد المزيد الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.