أعلن المكتب الوطني للإعلام عن ترسية عقد جديد لمشروع إستراتيجي مع شركة “بريسايت ايه اي”، المتخصصة في تحليلات البيانات الضخمة والمدعومة بالذكاء الاصطناعي، لإطلاق مشروع “بحيرة البيانات” الذي يهدف إلى إنشاء منصة سحابية متكاملة لتحليل البيانات.
وتأتي هذه الشراكة التي كُشف عنها خلال فعاليات الدورة الرابعة من منتدى “اصنع في الإمارات 2025″، في إطار مساعي المكتب لتطوير منظومة الإعلام في الدولة وبما يساهم في ترسيخ مكانتها أيقونة للابتكار، كما تستهدف كذلك المساهمة في تأهيل جيل إعلامي قادر على قيادة القطاع، وتعزيز الحضور الإقليمي والعالمي للدولة.


جاء تصميم هذا المشروع الرائد لتمكين الجهات الإعلامية في الدولة من الوصول إلى تحليل دقيق وموثوق وتحويله إلى رؤى قابلة للتنفيذ تسهم في دعم صناعة القرار وتعزيز العمل الإعلامي.
ويستهدف المشروع توظيف الذكاء الاصطناعي في تعزيز نزاهة السرد الإعلامي من خلال الاعتماد على تحاليل موثوقة للبيانات، وترسيخ مبادئ حوكمة المعلومات، وتوفير رؤى دقيقة تدعم رسم السياسات الإعلامية بموضوعية وشفافية.
كما يسعى المشروع إلى تعزيز التنسيق والتكامل بين المؤسسات الإعلامية المختلفة، وضمان اتساق الرسائل الوطنية ومصداقيتها، بالإضافة إلى تحسين جودة المحتوى الإعلامي من خلال استشراف القضايا والتوجهات الإعلامية المستقبلية.
وتركز هذه الشراكة على تطوير منظومة إعلامية متكاملة تدعم المشهد الإعلامي الوطني، وتُمكّن المكتب الوطني للإعلام من تعزيز التنسيق بين المؤسسات الإعلامية، وتوسيع دائرة الرسائل الإعلامية المتناغمة مع الأولويات الوطنية، من خلال الاستفادة من أحدث تقنيات الذكاء الاصطناعي.
ويرتكز التعاون على مسارين رئيسيين يعكسان رؤية طموحة نحو مستقبل إعلامي ذكي ومتكامل، الأول يختص بالتحليلات الإعلامية المدعومة بالذكاء الاصطناعي؛ أما المسار الثاني، فيتمثل في إنشاء مركز بيانات يجمع الأصول الإعلامية الوطنية في مكان واحد، ويفتح آفاق تعاون آمن وغير مسبوق بين المؤسسات الإعلامية والحكومية، ليشكل ركيزة أساسية لتعزيز التنسيق الإعلامي على مستوى الدولة.
وتمثل هذه الحلول الذكية خطوة عملية نحو دعم رؤية المكتب الإعلامي الوطني في تعزيز توظيف تقنيات الذكاء الاصطناعي ضمن بيئة العمل، بما يسهم في رفع كفاءة الأداء وتحسين إدارة الوقت والموارد، وبما يترجم جهوده الرامية إلى تبني أدوات رقمية متقدمة تُسهم في تسريع التحول الرقمي، وتعزيز الابتكار، بما يتماشى مع التوجهات الوطنية المستقبلية.
ويستفيد المشروع من خبرات “بريسايت ايه اي” في مجال الذكاء الاصطناعي التوليدي حيث قدمت حلولاً ذكية داخل الدولة وحققت وفورات سنوية تزيد على مليار درهم، وأكثر من مليوني ساعة عمل، بالإضافة إلى تحقيق أتمتة كاملة لعمليات معالجة البيانات بنسبة 100%.
وأكد سعادة الدكتور جمال محمد عبيد الكعبي، المدير العام للمكتب الوطني للإعلام، أن مشروع “بحيرة البيانات” الاعلامية يشكل أحد الأدوات التي يعتمد عليها المكتب في بناء منظومة إعلامية أكثر ذكاء وترابطا، قائمة على التحليل العميق للبيانات واتخاذ القرار المستند إلى المعرفة، مشيرا سعادته إلى أن المشروع يمثل تحولاً نوعياً في طريقة فهم المشهد الإعلامي وإدارته بمرونة ودقة.
وقال سعادته: يوفر مشروع “بحيرة البيانات” بنية تحتية لتوليد رؤى دقيقة وشاملة تدعم التخطيط الاستراتيجي وتساعد على بناء سردية وطنية متماسكة”، مشيرا إلى أن المشروع يتيح كذلك إمكانية التنبؤ بالتوجهات والقضايا المستقبلية، والتفاعل معها، الأمر الذي يرسخ مكانة الإمارات كدولة سباقة في توظيف الذكاء الاصطناعي لخدمة الأجندة الإعلامية الوطنية.
وشدد سعادة الدكتور جمال الكعبي على أن المشروع سيحدث تحولاً ملموساً في بيئة العمل الإعلامي من خلال أتمتة العمليات، وتوفير أدوات تحليلية ذكية تعزز الإنتاجية، وتقلل من الهدر الزمني، وتزيد من كفاءة فرق العمل، منوها بأن هذه المنظومة ستسهم في دعم التنسيق المؤسسي بين الجهات الإعلامية المختلفة، وتوفير محتوى أكثر تأثيراً واتساقاً، بما يعكس أولويات الدولة ويصل إلى الجمهور المحلي والدولي بأعلى درجات الاحتراف والمصداقية.
وعبر توماس براموتيدهام، الرئيس التنفيذي لشركة “بريسايت ايه اي”، عن سعادته بالشراكة مع المكتب الوطني للإعلام، مشيراً إلى أن هذا التعاون يعكس الثقة في قدرات الشركة على تقديم حلول تقنية متقدمة قادرة على تلبية احتياجات العمل الإعلامي بكفاءة.
ولفت إلى أن مهمة الشركة تتمثل في تحويل البيانات إلى رؤى قابلة للتنفيذ، تُسهم في إحداث تأثير فعلي على المستوى المحلي، موضحاً أن التعاون مع المكتب الوطني للإعلام يُبرز الإمكانات العملية للذكاء الاصطناعي المطور محلياً، بوصفه عنصراً استراتيجياً في تطوير العمل الإعلامي.
وشدد على أن هذه الشراكة تهدف إلى بناء منظومة إعلامية ذكية تعزز الوعي الإعلامي، وتدعم التنسيق بين الجهات المعنية، بما يضمن الحفاظ على مصداقية وانتشار السردية الوطنية لدولة الإمارات، معتبراً المشروع نموذجاً فعالاً لتوظيف الذكاء الاصطناعي في دعم التكامل المؤسسي، وتمكين إنتاج محتوى رائد يسهم في دفع مسيرة التنمية عبر إعلام أكثر ترابطاً وكفاءة.


المصدر: جريدة الوطن

إقرأ أيضاً:

كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟

في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.

بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.

فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.

والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.

ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».

ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.

إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.

بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).

مقالات مشابهة

  • كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
  • رئيس جامعة أسيوط يعلن انضمام مجلة "حوار جنوب-جنوب" لقاعدة البيانات الرقمية
  • المكتب الوطني للإعلام يعلن إطلاق منصة سحابية لتحليل البيانات عبر الذكاء الاصطناعي
  • «الوطني للإعلام» يطلق منصة سحابية لتحليل البيانات عبر الذكاء الاصطناعي
  • بنك القاهرة يعلن إطلاق منصة وتطبيق جديد للتيسير على الشركات
  • الذكاء الاصطناعي يحوّل الصور إلى فيديوهات عبر «تيك توك»
  • إطلاق السياسة العامة للاستخدام الآمن والأخلاقي لأنظمة الذكاء الاصطناعي
  • إطلاق منصة رعاية صحية مدعومة بالذكاء الاصطناعي في أبوظبي
  • منصة سحابية سيادية بالتعاون بين & e وأمازون