معلومات الوزراء يستعرض مستقبل مراكز الفكر في عصر الذكاء الاصطناعي
تاريخ النشر: 13th, January 2025 GMT
أصدر مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء، تقريراً جديداً حول مستقبل مراكز الفكر في عصر الذكاء الاصطناعي، تناول من خلاله كيفية استفادة مراكز الفكر من تقنيات الذكاء الاصطناعي لتعزيز أدائها ودورها في صنع السياسات العامة.
وأوضح المركز أن العالم يشهد تحولًا في آليات اتخاذ القرارات السياسية والاقتصادية، مشيرا إلى أن مراكز الفكر تلعب دورًا استراتيجيًّا في دعم متخذي القرار وتوجيههم نحو سياسات قائمة على أسس علمية ودقيقة، وعلى مدار العقود الماضية، كانت هذه المراكز ركيزة أساسية في صياغة الرؤى المستقبلية وتحليل القضايا الوطنية والدولية، ولكنها اليوم تواجه تحديات كبيرة تفرضها ثورة البيانات والتقنيات الرقمية، والتقدم المتسارع في تقنيات الذكاء الاصطناعي وتأثيرها المتزايد في الحياة.
وأشار التقرير، إلى أن مراكز الفكر أصبحت مؤشرًا لتقدم الدول وتطويرها في مجال البحث العلمي، واتساع دائرة نشاطها في الكم والنوعية وتـعـددت إسهاماتها في مجالات متعددة، وتحظى اليوم المراكز البحثية باهتمام كبير، حيث حققت نجاحات عظيمة ومكانة مرموقة وصـارت محل ثقة بالنسبة لصانع القرار، فهي تساهم بدرجة كبيرة في صنع القرار وصنع السياسات العامة، ووصل عدد مراكز الفكر حول العالم في عام 2020 إلى نحو 11175 مركزاً متخصصاً في مجالات متنوعة، منهم 3389 مركزاً في آسيا، و2932 مركزاً في أوروبا، و2397 مركزاً في أمريكا الشمالية، وتعد الولايات المتحدة الأمريكية الأولى على العالم من حيث عدد مراكز الفكر على أراضيها بإجمالي 2203 مركز فكر حتى عام 2020، ثم الصين بإجمالي 1413 مركزاً، ثم الهند والمملكة المتحدة بإجمالي 612، و515 على التوالي.
ولفت إلى أن عدد مراكز الفكر في منطقة الشرق الأوسط وشمال إفريقيا بلغ 599 مركزاً، وتُعد إيران أكثر دول المنطقة في مراكز الفكر تليها تركيا بإجمالي 53 مركزاً ثم مصر بإجمالي 47 مركز فكر.
وأشار التقرير إلى أنه على الرغم من الفرص الهائلة التي تتيحها تقنيات الذكاء الاصطناعي أمام مراكز الفكر، فإنها في الوقت ذاته تجعلها تواجه بعض التحديات الصعبة الذي يجب التعامل معها بجدية، ومن أبرز هذه التحديات: (التحديات المالية، والتحديات الإدارية، والتزييف العميق، وتحديات انتشار المعلومات المضللة وعدم تحري الدقة، والتحديات الأخلاقية، وتحديات دمج البيانات الضخمة في عملية صنع القرار).
وأوضح المركز أن للذكاء الاصطناعي دوراً مهماً في تعزيز العمل الأكاديمي، ومن أبرز المجالات الأساسية التي يدعم فيها الذكاء الاصطناعي بشكل كبير الوظائف الأكاديمية والبحثية، هي، تطوير الأفكار وتصميم البحث، وتطوير المحتوى وتنظيمه بجانب مراجعة الأدبيات، وإدارة البيانات وتحليلها، والتحرير والمراجعة ودعم النشر، والتواصل والمشاركة والامتثال الأخلاقي.
كما أبرز التقرير أهم الفرص والأدوار الجديدة لمراكز الفكر في عصر الذكاء الاصطناعي وهي: دور الذكاء الاصطناعي في إجراء الأبحاث والدراسات، ودوره في جمع وتحليل البيانات الضخمة، التنبؤ والتحليل المستقبلي، دور الذكاء الاصطناعي في تدقيق البيانات، دور لوحات المعلومات المدعومة بالذكاء الاصطناعي في اتخاذ القرارات، الاستفادة من توفر البيانات في الوقت الفعلي Real-time data، استطلاعات الرأي العام في عصر الذكاء الاصطناعي، الاستشارات المتخصصة، تطور وسائل التواصل والتأثير.
وأوضح التقرير، أنه في عصر الذكاء الاصطناعي تحتاج مراكز الفكر إلى تبني استراتيجيات طموحة للمستقبل لتعزيز دورها المحوري في صياغة السياسات والتأثير في القرارات ويتطلب ذلك بناء شراكات قوية مع المؤسسات التقنية والأكاديمية، حيث عملت مراكز الفكر والبحث على تعزيز تعاونها في هذا الإطار من خلال التعاون مع بعضها البعض من جهة، ومع المؤسسات الأخرى ذات الصلة مثل مؤسسات صنع القرار ومطوري التكنولوجيا وغيرهم، من أجل تبادل الخبرات وتطوير الحلول والتطبيقات التي من الممكن توظيفها والاستفادة منها..
كما تعمل على دعم حوكمة الذكاء الاصطناعي، حيث أنه مع تطور الذكاء الاصطناعي واستخداماته، ستقوم مراكز الفكر بمساعدة الحكومات والمنظمات الدولية على صياغة الأطر القانونية التي تنظم استخدام الذكاء الاصطناعي عالميًّا، مع التركيز على الحوكمة الرشيدة وحماية الحقوق.
وستركز مراكز الفكر على تطوير سياسات وإرشادات حول حوكمة الذكاء الاصطناعي، بما في ذلك التحقق من الشفافية، المسؤولية، والعدالة في استخدام الذكاء الاصطناعي في المجالات المختلفة.
فضلا عن تعزيز قدرات البحث والتطوير في مجال الذكاء الاصطناعي، و التدريب المستمر للباحثين وصناع السياسات على استخدام أدوات الذكاء الاصطناعي.
وأشار التقرير في ختامه إلى أنه في ظل الثورة التكنولوجية التي يجلبها الذكاء الاصطناعي، تواجه مراكز الفكر تحديات وفرصًا غير مسبوقة، فهذه المؤسسات - التي كانت دائمًا جسرًا بين المعرفة والسياسات - أصبحت مطالبة بتبني الأدوات الجديدة لتعزيز قدرتها على التحليل والتنبؤ وصنع القرار، واستغلال تقنيات الذكاء الاصطناعي بشكل فاعل لن يعزز فقط من دقة وكفاءة الأبحاث، بل سيمكن مراكز الفكر أيضاً من مواكبة التغيرات السريعة في العالم.
ومع ذلك، يتطلب هذا التحول نهجًا استراتيجيًّا يعتمد على الشراكات، والتدريب المستمر، والالتزام بالأخلاقيات والشفافية. إذا استطاعت مراكز الفكر التعامل مع هذه التحديات بنجاح، فإنها ستظل داعمًا أساسيًّا في صياغة السياسات العامة ودعم صناع القرار في مواجهة تحديات المستقبل.
اقرأ أيضاًمعلومات الوزراء: حرائق كاليفورنيا تسبب خسائر 9 مليارات دولار لشركات الطاقة
معلومات الوزراء يطلق العدد الثامن من مجلة «آفاق صناعية» تحت عنوان «الصناعات الدوائية»
معلومات الوزراء: السلاسل اللوجستية بمثابة حجر الزاوية لضمان نمو اقتصادي مستدام
المصدر: الأسبوع
كلمات دلالية: معلومات الوزراء مركز المعلومات ودعم اتخاذ القرار بمجلس الوزراء أمريكا الشمالية التقنيات الرقمية تقنيات الذكاء الاصطناعي ثورة البيانات تقنیات الذکاء الاصطناعی فی عصر الذکاء الاصطناعی الذکاء الاصطناعی فی معلومات الوزراء مراکز الفکر فی صنع القرار إلى أن
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»