هل سيقضي الذكاء الاصطناعي على عمل الصحفيين؟
تاريخ النشر: 23rd, September 2023 GMT
لندن - صفا
رسائل طمأنة كثيرة حملتها ندوة تقديم نتائج الاستطلاع العالمي حول "الذكاء الاصطناعي وغرف الأخبار"، الذي أعلنت عنه "مبادرة غوغل للأخبار" وقسم الصحافة في جامعة لندن للاقتصاد، والذي يعد حاليا أكبر دراسة في العالم تقدم صورة واضحة عن اعتماد وسائل الإعلام العالمية على الذكاء الاصطناعي في عملها اليومي.
سؤال "هل سيعوض الذكاء الاصطناعي عمل الصحفيين؟" كان الشغل الشاغل لأغلبية الحاضرين للندوة التي احتضنها مقر صحيفة "فايننشال تايمز" في لندن، وأغلبهم من الصحفيين والباحثين في الإعلام.
الجواب تكفل به عدد من خبراء الإعلام البريطانيين، بعد تقديم نتائج الاستطلاع، الذي أنجزه البروفيسور شارلي بيكيت، مسؤول برنامج الصحافة في كلية لندن للاقتصاد، والإعلامية ميرة ياسين التي تكفلت بإدارة هذا الاستطلاع.
وشملت الدراسة 105 مؤسسات إعلامية في أكثر من 46 دولة حول العالم، وموضوعها الأساسي هو حول استعمال هذه المؤسسات للذكاء الاصطناعي، وتصور الصحفيين عن تقنيات الذكاء الاصطناعي، والموقف منه.
نتائج متفاوتة
تظهر نتائج الدراسة أن الفوارق في الإمكانيات بين وسائل الإعلام في الدول الغنية (دول الشمال) ونظيراتها في دول الجنوب، ستبقى حاضرة حتى من حيث استعمال تقنيات الذكاء الاصطناعي والوصول إليها، وتقول الدراسة إن أكثر من سيستفيد من الذكاء الاصطناعي من الناحية الاقتصادية والتقنية هي وسائل الإعلام في الدول الغنية؛ بسبب توفر البنية التحتية الضرورية، بينما ما تزال دول الجنوب "تعاني من مشاكل اجتماعية واقتصادية وثقافية لحد الآن".
وأكّد 75% من الذين شملهم الاستطلاع أنهم استعملوا الذكاء الاصطناعي لمرة واحدة على الأقل في عملهم الصحفي، والمثير أن ثلث غرف التحرير التي شملها الاستطلاع أكدت أنها وضعت بالفعل إستراتيجية لاستعمال الذكاء الاصطناعي، وأكد الثلث أيضا أنهم مستعدون لمواجهة التحديات التي سيفرضها الذكاء الاصطناعي على غرف التحرير.
وبيّن 40% من المستجوبين أن نظرتهم حول الذكاء الاصطناعي لم تتغير خلال السنوات الماضية، إما بسبب إنهم ما زالوا مبتدئين في هذا التخصص أو أن مؤسساتهم الإعلامية لا تشتغل بأي تقنية من تقنيات الذكاء الاصطناعي.
بينما عبّر 60% من الصحفيين عن مخاوفهم من عدم احترام برامج الذكاء الاصطناعي لأخلاقيات الممارسة الصحفية، وكيف يمكن لهذه البرامج أن تحترم الدقة في المعلومات والتوازن والحياد وكذلك الشفافية، وألا تتحول لوسيلة لنشر الأخبار الزائفة والتحريض على العنف.
ويُجمع أغلبية الصحفيين الذين شملهم الاستطلاع (بنسبة 80%) على أن الذكاء الاصطناعي سيصبح عنصرا أساسيا في العمل الصحفي، وسيدخل جميع غرف التحرير في المستقبل، وهي مرحلة يجب أن يستعد لها الصحفيون.
"التغيير قادم"
يؤكد البروفيسور شارلي بيكيت في تصريح للجزيرة نت أن "الذكاء الاصطناعي لن يقضي على الصحفيين، ولكن يجب الاستفادة من الفرص التي سيقدمها في العمل الصحفي، لأنني مقتنع أن التغيير قادم لا محالة"، مضيفا أنه لمس خلال إجراء هذا الاستطلاع "وجود تيارين في التعامل مع الذكاء الاصطناعي، تيار متخوف جدا من الأمر ويخشى أنه قد يفقد وظيفته، وتيار يعتقد أن الذكاء الاصطناعي بإمكانه عمل كل شيء نيابة عن الصحفي وهذا تصور خاطئ".
وتوقّع البروفيسور البريطاني أن الذكاء الاصطناعي "سيساعد الصحفيين في دول الجنوب، كما هو الحال في المنطقة العربية، وخصوصا الذين يشتغلون على صحافة التحقيق"، مضيفا أنه على الصحفيين في هذه المناطق أن يتعاونوا فيما بينهم "من أجل تقاسم الخبرات وحتى الإمكانيات، وأعتقد أن برامج الذكاء الاصطناعي ستسهل أيضا إمكانية جمع المعلومات وتدقيقها".
أما بالنسبة للصحفيين الذين يشتغلون في بيئات صعبة، حيث المراقبة الحكومية والتضييق على الحريات "فإن الذكاء الاصطناعي لن يغير من الواقع في شيء، ذلك أن الصحفيين الذين يشتغلون على التحقيقات في هذه المناطق سيكون عليهم مواجهة المخاطر كما العادة"، مضيفا أن "تلك الحكومات هي أيضا تستثمر في هذه البرامج من أجل نشر أخبار تناسب روايتها للأحداث".
مساعد وليس منافسا
تعترف جاين باريت المديرة العامة للوسائط الرقمية في وكالة "رويترز" في تصريحها للجزيرة نت، أنه من الصعب الحسم في إمكانية "حصول الصحفيين على الحماية وسلامتهم الشخصية، من خلال استعمال برامج الذكاء الاصطناعي"، مضيفة أنه "من الصعب الحكم على الأمر حاليا".
وأكدت باريت أن هناك إقبالا على برامج الذكاء الاصطناعي والحلول التي تقدمها "من طرف وسائل الإعلام -حتى في دول الجنوب- لكن في المقابل هناك نقص كبير في الموارد التقنية والبنية التحتية".
وعبرت باريت عن قناعتها بأن "الذكاء الاصطناعي لن يستعيض عن الصحفيين أبدا، وتقول "حاليا أستعمل تقنيات الذكاء الاصطناعي في عملي اليومي بشكل كبير وهي مساعدة لي، لكن لن تأخذ مكان الصحفي، والذي ممكن أن يعوض مكان الصحفي هو صحفي آخر يتقن استعمال الذكاء الاصطناعي".
وأشارت باريت إلى أنه على الصحفيين التعامل مع الذكاء الاصطناعي "كوسيلة جديدة تُضاف للوسائل التي بين أيديهم، لتسهيل عملهم وليس للقيام بعملهم"، كما دعت الصحفيين إلى "عدم النظر إلى الذكاء الاصطناعي كخطر ومحاولة تجاهله، بل على العكس يجب الاستفادة منه وتعلم تقنياته".
المصدر: وكالة الصحافة الفلسطينية
كلمات دلالية: الذكاء الاصطناعي تقنیات الذکاء الاصطناعی برامج الذکاء الاصطناعی وسائل الإعلام دول الجنوب
إقرأ أيضاً:
كيف ينتج الذكاء الاصطناعي معلومات خاطئة؟
#سواليف
تخيّل أنك تخوض امتحان تاريخ دون استعداد كافٍ، وتعتمد فقط على الحدس في الإجابة، فتربط “1776” بالثورة الأمريكية و”هبوط القمر” بعام 1969. هذا تقريباً ما تفعله نماذج اللغة الكبيرة (LLMs) مثل ChatGPT: إنها لا تفهم أو تفكر، بل “تخمّن” الكلمة التالية بناءً على أنماط شاهدتها في كميات هائلة من النصوص.
هذه الحقيقة تؤكد قوة #نماذج #اللغة_الكبيرة وحدودها، وهذا يقودنا إلى السؤال الأهم: إذا كانت النماذج بهذه الذكاء، فلماذا لا تزال ترتكب الأخطاء، أو تهلوس الحقائق، أو تظهر تحيزاً؟ لفهم ذلك، علينا التعمق في كيفية تعلمها، وفق “إنتريستينغ إنجينيرنغ”.
كيف تعمل هذه النماذج؟
تُقسّم اللغة إلى وحدات صغيرة (رموز) مثل “wash” و”ing”، وتخصص لكل منها وزناً في شبكة عصبية ضخمة، ثم تعدّل هذه الأوزان باستمرار خلال التدريب لتقليل الأخطاء. بمرور الوقت، تتقن هذه النماذج التعرف على الأنماط، لكنها لا “تعرف” الحقائق، فهي فقط تتوقع ما يبدو صحيحاً.
مقالات ذات صلةلماذا تخطئ أو تهلوس؟
لأنها تخمّن. هذا التخمين يؤدي أحياناً إلى “هلوسة” معلومات خاطئة أو مفبركة بثقة، كاختراع مصادر أو استشهادات.
هذه ليست أكاذيب متعمّدة، بل نتيجة لعدم تمييز النموذج بين الصحيح والمزيف.
وفي التطبيقات العملية، يمكن للهلوسة أن تؤدي إلى عواقب وخيمة، وفي البيئات القانونية والأكاديمية والطبية، يمكن للذكاء الاصطناعي اختلاق قوانين ومصادر أو تشخيص الحالات بثقة تامة دون معرفة تاريخ صحة المريض، وهذا يوضح ضرورة مراجعة البشر لأي محتوى ينتجه الذكاء الاصطناعي والتحقق منه، خاصةً في المجالات التي تعدّ فيها الدقة أمراً بالغ الأهمية.
التحيّز والمعرفة القديمة
نظراً لأن النماذج تتعلم من بيانات الإنترنت، فهي معرضة لاكتساب التحيزات الثقافية والجندرية والسياسية المتأصلة في تلك البيانات.
كما أن “معرفتها” مجمّدة زمنياً، فإذا تغير العالم بعد آخر تدريب لها، تصبح استنتاجاتها قديمة.
لماذا يصعب إصلاح هذه الأخطاء؟
يعمل مدربو الذكاء الاصطناعي مع مليارات الاحتمالات، وتدريبهم مرة أخرى من الصفر مكلف من حيث المال والقدرة الحاسوبية، والأسباب متشعبة، منها:
تكلفة تحديث البيانات: تدريب نموذج جديد يتطلب موارد هائلة.
غموض “الصندوق الأسود”: لا يمكن دائماً تفسير لماذا أعطى النموذج استجابة معينة.
محدودية الرقابة البشرية: لا يمكن فحص كل إجابة يخرج بها النموذج.
الحلول المطروحة
وللتغلب على هذه المشكلات، يلجأ المطورون إلى:
التعلّم المعزز بالتغذية الراجعة البشرية (RLHF)، حيث يقيّم البشر مخرجات النموذج لتحسينه.
الذكاء الاصطناعي الدستوري، كما لدى Anthropic، لتدريب النماذج على الالتزام بمبادئ أخلاقية.
مبادرة Superalignment من OpenAI، لتطوير ذكاء اصطناعي يتماشى مع القيم الإنسانية دون إشراف دائم.
قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يضع قواعد صارمة للأنظمة عالية المخاطر.
ما دور المستخدمين؟
#الذكاء_الاصطناعي أداة قوية، لكنه ليس معصوماً. لذا، تظل المراجعة البشرية ضرورية، خاصة في المجالات الحساسة كالقانون والطب والتعليم، فالخطأ الذي يصدر عن الذكاء الاصطناعي، تقع مسؤوليته على البشر، لا على الخوارزميات.