شومان يناقش الأبعاد الأخلاقية لتوظيف الذكاء الاصطناعي في الصحافة
تاريخ النشر: 15th, December 2024 GMT
تابع أحدث الأخبار عبر تطبيق
ناقش الدكتور محمد شومان عميد ومؤسس كلية الاتصال والإعلام بالجامعة البريطانية، الأبعاد الأخلاقية لتوظيف الذكاء الاصطناعي في الصحافة، مشيرًا إلى مخاطر الاعتماد الكلي على التقنيات الحديثة في إنتاج الأخبار، مثل انتشار الأخبار المزيفة وصعوبة التحقق من مصادرها.
وأشار "شومان" إلى أهمية وضع أطر قانونية وتشريعات تُنظّم استخدام الذكاء الاصطناعي في المؤسسات .
وانطلقت أمس السبت فعاليات المؤتمر العام السادس لنقابة الصحفيين بحضور ومشاركة واسعة من المتخصصين والجمعية العمومية.
وفي وقت سابق أعلنت نقابة الصحفيين المصريين بالتنسيق مع الأمانة العامة للمؤتمر السادس للصحافة المصرية برنامج المؤتمر، الذي ينعقد خلال الفترة من 14 إلى 16 ديسمبر الحالي، ويشارك فيه نخبة واسعة من المتحدثين المصريين والعرب، وممثلو الاتحاد الدولي للصحفيين.
ويتضمن برنامج المؤتمر جلسات لأبرز القضايا والموضوعات الملحة، التي تهم الصحفيين المصريين، وأوضاع الصحافة المصرية، بالإضافة لإعلان نتائج الاستبيان الخاص بالمؤتمر، الذي شارك فيه أكثر من 1500 صحفي.
ودعت الأمانة العامة للمؤتمر جموع الصحفيين المصريين للمشاركة في المؤتمر، ومناقشة كل القضايا المتعلقة بمهنة الصحافة، وأوضاعها وتحدياتها للوصول لتوصيات معبرة عن الصحافة المصرية وأوضاع الصحفيين.
المصدر: البوابة نيوز
كلمات دلالية: الدكتور محمد شومان الذكاء الاصطناعي الصحافة التقنيات الحديثة الأخبار المزيفة المؤتمر العام السادس لنقابة الصحفيين نقابة الصحفيين
إقرأ أيضاً:
تليفونك بيراقبك .. كيف تجمع أدوات الذكاء الاصطناعي بياناتك
تجمع أدوات الذكاء الاصطناعي بياناتٍ كثيرةً عن المستخدمين للتنبؤ بسلوكهم وفي المقابل، يمكنك منعها من تتبعك باتباع بعض الخطوات.
مخاوف كبيرةوفقا لموقع" indiatvnews "فمن استخدام مساعدي الذكاء الاصطناعي مثل ChatGPT أو Microsoft Copilot إلى تتبع روتين اللياقة البدنية اليومي باستخدام الساعات الذكية، يتفاعل العديد من الأفراد مع أنظمة أو أدوات الذكاء الاصطناعي يوميًا. وبينما تُعزز هذه التقنيات بلا شك الراحة، إلا أنها تُثير أيضًا مخاوف كبيرة بشأن خصوصية البيانات.
أشار كريستوفر رامزان، الأستاذ المساعد في الأمن السيبراني بجامعة وست فرجينيا، أن برامج الذكاء الاصطناعي التوليدية تعتمد على كميات هائلة من بيانات التدريب لإنتاج محتوى جديد، مثل النصوص أو الصور، بينما يستخدم الذكاء الاصطناعي التنبئي البيانات للتنبؤ بالنتائج بناءً على سلوكك السابق - مثل تقييم احتمالية تحقيق هدفك اليومي من الخطوات أو التوصية بأفلام قد تستمتع بها. يمكن استخدام كلا النوعين من الذكاء الاصطناعي لجمع معلومات عن الأفراد.
كيف تجمع أدوات الذكاء الاصطناعي البيانات
يوضح رامزان أن مساعدي الذكاء الاصطناعي المُولِّدين، مثل ChatGPT وGoogle Gemini، يجمعون جميع المعلومات التي يُدخلها المستخدمون في مربع الدردشة. ويُسجَّل كل سؤال وإجابة ورسالة يُدخلها المستخدمون، ويُخزَّن ويُحلَّل لتحسين نموذج الذكاء الاصطناعي. ويُشير إلى أنه على الرغم من أن OpenAI تُتيح للمستخدمين خيار إلغاء الاشتراك في استخدام المحتوى إلا أنها لا تزال تجمع البيانات الشخصية وتحتفظ بها. ورغم ادعاء بعض الشركات إخفاء هوية هذه البيانات - أي تخزينها دون تحديد هوية مُقدِّميها - إلا أن خطر إعادة تحديد هوية البيانات لا يزال قائمًا.
خصوصية بياناتيوضح رامزان أنه بالإضافة إلى مساعدي الذكاء الاصطناعي ، تجمع منصات التواصل الاجتماعي مثل فيسبوك وإنستجرام وتيك توك بيانات مستخدميها باستمرار لتحسين نماذج الذكاء الاصطناعي التنبؤية.
وعلاوة على ذلك، يشير رامزان إلى أن الأجهزة الذكية، بما في ذلك مكبرات الصوت المنزلية، وأجهزة تتبع اللياقة البدنية، والساعات الذكية، تجمع المعلومات باستمرار من خلال أجهزة الاستشعار البيومترية، والتعرف على الصوت، وتتبع الموقع..
غالبًا ما تُخزَّن البيانات التي تجمعها أدوات الذكاء الاصطناعي في البداية لدى شركة موثوقة، ولكن يُمكن بيعها أو مشاركتها بسهولة مع مؤسسات قد لا تكون بنفس القدر من الموثوقية ويؤكد أن القوانين الحالية لا تزال قيد التطوير لمواجهة تحديات الذكاء الاصطناعي وخصوصية البيانات.