مؤتمر الدوحة يناقش الذكاء الاصطناعي وحقوق الإنسان.. رؤى لمستقبل إعلامي أكثر إنسانية
تاريخ النشر: 2nd, June 2025 GMT
في خضم التحولات المتسارعة التي أحدثها الذكاء الاصطناعي في مختلف مناحي الحياة، انعقد في العاصمة القطرية الدوحة في 27 و28 مايو/أيار 2025 المؤتمر الدولي "الذكاء الاصطناعي وحقوق الإنسان: الفرص والمخاطر والرؤى لمستقبل أفضل"، بتنظيم من اللجنة الوطنية لحقوق الإنسان، وبالتعاون مع مؤسسات أممية وإقليمية، من بينها مركز الجزيرة للحريات العامة وحقوق الإنسان.
ناقش المؤتمر الأبعاد المتعددة لتأثير تقنيات الذكاء الاصطناعي على الحقوق والحريات، وخصّص جلسات موسعة لقطاعات حيوية مثل الأمن، والديمقراطية، والإعلام، والتعليم، والعمل، بمشاركة خبراء دوليين من الأمم المتحدة، وشبكة الجزيرة الإعلامية، ومنظمات المجتمع المدني، إلى جانب ممثلين عن القطاع التكنولوجي.
برزت خلال المؤتمر جلسة مميزة بعنوان "الذكاء الاصطناعي ومستقبل الإعلام وفق نهج حقوق الإنسان: المخاطر والابتكار"، نظمها مركز الجزيرة للحريات العامة وحقوق الإنسان بالشراكة مع اللجنة الوطنية لحقوق الإنسان.
وسلطت الجلسة الضوء على التحولات الجذرية التي يشهدها قطاع الإعلام تحت تأثير الذكاء الاصطناعي، من إنتاج المحتوى وتوزيعه، إلى التفاعل مع الجمهور، مع التركيز على أهمية إدماج قيم حقوق الإنسان في هذه العملية.
اقرأ أيضا list of 2 itemslist 1 of 2آلاف الأفغان يصارعون للبقاء في أميركا بعد إلغاء "الحماية"list 2 of 2التعاون الإسلامي: 90% من حوادث الإسلاموفوبيا لا يُبلّغ عنهاend of list إعلانوتناولت الجلسة التحديات الأخلاقية والمهنية التي تفرضها هذه التقنيات، كالتحيّز، وانتهاك الخصوصية، ونشر المعلومات المضللة. كما ناقشت مسؤوليات المؤسسات الإعلامية في تطوير أطر تنظيمية داخلية تحكم استخدام الذكاء الاصطناعي وتضمن الشفافية والمصداقية.
أكد الخبير في تقنيات الذكاء الاصطناعي بشبكة الجزيرة الإعلامية، الدكتور ياسر المحيو، أن الذكاء الاصطناعي بات جزءا لا يتجزأ من أدوات العمل الصحفي الحديث، لكنه يتطلب وعيا أخلاقيا وتقنيا من قبل الصحفيين.
وأشار إلى أن أدوات الذكاء التوليدي -رغم إمكاناتها الهائلة في تعزيز الكفاءة والإنتاجية- قد تخلق مشكلات في دقة المعلومات، نتيجة ما يُعرف في علم الذكاء الاصطناعي بـ"الهلوسة المعلوماتية"، أي إنتاج معلومات غير دقيقة أو مختلقة.
من جهته، حذّر الأستاذ بجامعة حمد بن خليفة، الدكتور جورجيوس ميكروس، من اعتماد الصحفيين على أدوات تقوم بجمع المعلومات بشكل عشوائي من الإنترنت من دون تمحيص، مما قد يؤدي إلى خروقات أخلاقية تمسّ بصدقية العمل الإعلامي، داعيا إلى تدريب مكثف على توجيه هذه الأدوات وضبط استخدامها.
فجوة رقمية وعدالة إعلاميةفي السياق ذاته، نبّهت خديجة باتيل، مديرة الصندوق الدولي لإعلام المصلحة العامة في جنوب أفريقيا، إلى خطر التفاوت المعرفي بين الصحفيين والمؤسسات بسبب نقص التمويل والتدريب، مشيرة إلى أن البلدان الفقيرة مهددة بالاستبعاد من التطور الرقمي. وأضافت أن استخدام الذكاء الاصطناعي من دون حذر قد يؤدي إلى تزييف الحقائق، وانتهاك الخصوصية، وتوسيع فجوة عدم المساواة في الوصول إلى المعلومات.
وشدد كارلوس هيرنانديز إيتشيفاريا من منظمة "مالديتا" على أهمية التمسك بالأساليب التقليدية في جمع الأخبار والتحقق منها، موضحا أن افتقار أدوات الذكاء الاصطناعي للشفافية في كيفية توليد المعلومات يشكل خطرا على مصداقية المحتوى.
وشدد الأستاذ في جامعة نورث ويسترن في قطر، إيدي بورخيس ري، على أن محتوى الإنترنت يعجّ بالمعلومات المضللة والرسائل التمييزية، محذرا من إعادة إنتاجها عبر أدوات الذكاء الاصطناعي. ودعا إلى ضرورة إرساء سياسات تحريرية واضحة داخل المؤسسات الإعلامية، تتعامل بشفافية مع المحتوى المولّد آليا.
في المقابل، رأى الدكتور ميكروس أن استخدام هذه الأدوات بات ضروريا، شريطة التصريح عند استخدامها، بهدف حماية الشفافية وتعزيز ثقة الجمهور.
إعلان التوازن بين التقنية والإنسانوخلصت الجلسة إلى أن مستقبل الإعلام لا يمكن فصله عن الذكاء الاصطناعي، لكنه ينبغي أن يُبنى على أسس حقوق الإنسان. فالعدالة في الوصول إلى المعلومات، والمهنية، والمسؤولية الأخلاقية، تظل مرتكزات لا غنى عنها في عصر الأتمتة.
وإنّ ما يُنتظر من المؤسسات الإعلامية في المرحلة المقبلة ليس مجرد تبنّي الأدوات التقنية، بل العمل على بناء بيئة رقمية تراعي مبادئ الشفافية والمصداقية، وتحفظ للصحفي مكانته كفاعل إنساني في خدمة الحقيقة والمجتمع.
المصدر: الجزيرة
كلمات دلالية: حريات حريات الذکاء الاصطناعی وحقوق الإنسان
إقرأ أيضاً:
السباق الاستخباراتي على الذكاء الاصطناعي
في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.
واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.
اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of listوفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.
وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.
سباق مفتوحوفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.
لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.
الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام
كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.
إعلانففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.
وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.
منافسون آخرونليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".
وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.
أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.
ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".
وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.
ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.
لعبة تجسس بالذكاء الاصطناعيفي المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.
وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.
وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.
إعلانويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.
الصين في الصورةورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".
موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له
وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.
ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.
وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".