محور رئيسي بإستراتيجيات الدولة للبحث العلمي.. د. أيمن أربد لـ «العرب»: 17% نمواً متوقعاً بسوق الذكاء الاصطناعي حتى 2026
تاريخ النشر: 8th, December 2023 GMT
«قطر للبحوث» يمول العديد من المشاريع البحثية المتنوعة
قطر تستثمر في تطوير البنية التحتية بتشجيع تطوير مراكز البيانات
يجب أن تكون المدخلات مكتملة ودقيقة حتى تعطي المخرجات المرجوة
أكد الدكتور أيمن أربد، أستاذ مشارك ورئيس قسم تقنية المعلومات والحوسبة بكلية العلوم والهندسة التابعة لجامعة حمد بن خليفة، عضو مؤسسة قطر، أن تطوّر الذكاء الاصطناعي في قطر كان محط اهتمام لدولة قطر لسنوات طويلة، ويقول: «يُعد الذكاء الاصطناعي أحد المحاور المهمة في استراتيجيات البحث العلمي في قطر بمؤسساتها المختلفة وكذلك في مؤسسة قطر وجامعة حمد بن خليفة».
وأضاف د. أربد في تصريحات خاصة لـ «العرب»: «علاوة على ذلك، قام مجلس قطر للبحوث والتطوير والابتكار بتمويل العديد من المشاريع البحثية من خلال برامج الصندوق القطري لرعاية البحث العلمي. ووفقاً لبرنامج «تسمو» التابع لوزارة الاتصالات وتكنولوجيا المعلومات، يقدر حجم سوق الذكاء الاصطناعي في قطر بنحو 31 مليون دولار في عام 2022، ومن المتوقع أن ينمو بنسبة 17.4 بالمائة سنوياً ليصل إلى 58.8 مليون دولار في عام 2026».
وتابع: «وإدراكًا لأهمية هذا القطاع، قامت وزارة الاتصالات وتكنولوجيا المعلومات، بالشراكة مع معهد قطر لبحوث الحوسبة، بتطوير استراتيجية قطر الوطنية للذكاء الاصطناعي التي تقوم على ستة ركائز: رعاية المواهب، والوصول إلى البيانات، والتوظيف، وتحقيق الثروة، وتبني تكنولوجيا الذكاء الاصطناعي في جميع المجالات بالمستقبل، والقيادة الفكرية في أخلاقيات الذكاء الاصطناعي، والتي ستعمل على دفع تقدّم قطر نحو هذا التحوّل، كما قامت الوزارة بتعيين لجنة الذكاء الاصطناعي لوضع اللمسات النهائية على خطة التنفيذ في عام 2021».
وأوضح الدكتور أربد أن قطر استثمرت في تطوير البنية التحتية للذكاء الاصطناعي من خلال تشجيع تطوير مراكز البيانات المحلية، مما أدى إلى تأسيس Microsoft Azure وGoogle Cloud التي أصبح لها حضور محلي في السنوات الثلاث الماضية، وقال: «إن الطلب المحلي والإقليمي على تكنولوجيا الذكاء الاصطناعي ضخم وسيتطلب العديد من برامج الحوافز للشركات الصغيرة وفرق البحث للمشاركة في تطوير تطبيقات الذكاء الاصطناعي في المستقبل».
أردف: «نحن مقبلون على تطوير المزيد من التقنيات التي سنشهد تطبيقاتها في مختلف المجالات، مثل أتمتة التعليم والنهوض بالتعليم الفردي المتمحور حول الطلاب واهتماماتهم، وكذلك في مجال الرعاية الصحية وأتمتة معالجة البيانات الصحية، وكذلك المجالات الاقتصادية مثل اللوجستيات التي يمكن الاعتماد فيها على تقنيات الروبوتات».
ولتوضيح أهمية الذكاء الاصطناعي في حياتنا، قال: تخيّل أنك تقود سيارتك يومًا من الأيام متجهًا لمكان جديد، لكنك لا تعرف كيف تصل لوجهتك، ولا تمتلك نظام تحديد المواقع على سيارتك أو هاتفك المحمول، فتضطر أن تسأل الآخرين عن الاتجاهات، لكن وصفهم قد لا يكون واضحًا وتضل طريقك بسبب ذلك، هذا ما كانت لتبدو عليه حياتنا اليوم دون وجود الذكاء الاصطناعي، حيث أصبحت تطبيقاته جزءًا من نسيج حياتنا اليومية، وساهمت في جعلها أبسط وأسهل في الكثير من النواحي، حتى لو لم ندرك ذلك أو اعتبرناه من المسلّمات.
تطوير دقة المعلومات
وأضاف: لفهم الذكاء الاصطناعي أكثر، يعرّف، الذكاء الاصطناعي بشكل مختصر ومبسط على أنه «مجال يتم فيه تطوير تقنية ذكية قادرة على أداء مهام الإنسان، وذلك اعتمادًا على المعلومات التي يقوم الذكاء الاصطناعي بتحليلها وفهم أنماطها ثمّ اتخاذ القرارات بناءً عليها».
ووفقًا للدكتور أيمن، ما يميز الذكاء الاصطناعي عن غيره من التقنيات هو «قدرته على تطوير دقة تصنيف المعلومات والارتقاء بفهمها بشكل أكثر فعالية من قدرة الإنسان على فهم كميّة هائلة من المعلومات».
وأوضح: «يعتمد الذكاء الاصطناعي على أن الإنسان الذي يطوّر هذا النموذج قادر على فهم المشكلة بشكل جيد وفهم المدخلات والمخرجات المطلوبة، وفي بعض الأحيان، يتم تطوير الذكاء الاصطناعي بدون تصنيفٍ للمعلومات، حيث نعتمد على قدرة أن الذكاء الاصطناعي في الاعتماد على نفسه لتصنيف المعلومات وتدقيقها وفهم الأنماط الجديدة التي لا يفهمها الإنسان».
وأشار إلى أن استخدامات الذكاء الاصطناعي متعددة وكذلك احتكاكهم بهذه التقنيات، فقال: «إذا راقبنا حياتنا اليومية سنجد أن الذكاء الاصطناعي هو بالفعل جزء من حياتنا اليومية، مثل برامج الخرائط التي تعتمد على تحليل الخوارزميات وتحليل كم هائل من البيانات لتحديد الاختناقات المرورية وزمن الوصول للوجهة، وكذلك وسائل التواصل الاجتماعي وأنظمة الفيديو عبر الإنترنت التي تقوم بتحليل بيانات المستخدمين، ومن الأمثلة الأخرى هي الترجمة الفورية التي تعتمد على تحليل النصوص».
وأضاف: ومع الانتشار المتزايد لتقنيات الذكاء الاصطناعي، تزايدت المخاوف من هيمنة هذه التقنية على الإنسان وسيطرتها على الكثير من الوظائف، ويرجع الدكتور أيمن السبب في ذلك إلى «تسارع تطوّر التقنية واستخدامها في تطبيقات متعددة».
وأوضح: «من الطبيعي عند تطوّر أي تقنية بشكّل بسريع، أن يكون هناك رفض أو تخوّف من استخدامها في البداية ويتضح ذلك في مجال العمل بشكل خاص، لكن هذا لا يعني أن الذكاء الاصطناعي سيقضي على كلّ الوظائف، بل سيُسهم في رفع المهارات المطلوبة في العمل، كما أن بعض الوظائف سيتم أتمتة أجزاء منها فقط، بالإضافة إلى الوظائف الجديدة التي سيتم استحداثها مستقبلاً».
وتابع: «قد يخشى الإنسان هذه التقنيات لأنه لا يستطيع فهمها. ولكن إذا ساعدنا الطلبة في المدارس والجامعات، وكبار السن، وغيرهم من أفراد المجتمع على فهم التقنية وفهم أساسياتها واستخداماتها المتعددة، يمكننا الحد من المخاوف حول تطوّر الذكاء الاصطناعي».
تحديات عملية وأخلاقية
كما أشار الدكتور أيمن إلى عدد من التحديات التي تواجه الذكاء الاصطناعي قائلاً: «من التحديات الكبيرة هي البيانات التي يتم إدخالها في أنظمة الذكاء الاصطناعي، إذ يجب أن تكون المدخلات مكتملة ودقيقة لتعطي المخرجات المرجوّة، بالإضافة إلى التعلّم العميق للذكاء الاصطناعي، التي ننظر إليها كصندوق أسود، حيث مازلنا لا نمتلك آلية لفهم آلية اتخاذ القرار وتصنيف البيانات وتحديد اتجاهاتها، لذا من الضروري أن نعمل على إنتاج ذكاء اصطناعي قابل للفهم للتعامل مع مخاوف الإنسان من هذه التقنية».
يتابع: «نواجه تحديا آخر يكمن في أخلاقيات الذكاء الاصطناعي، وما إذا كانت تطبيقاته المختلفة تحترم قوانين وأخلاقيات الدول ويتماشى مع المنظومة الاجتماعية والأخلاقية».
ويختتم الدكتور أيمن: «الذكاء الاصطناعي هو تقنية العصر، وسيحدث ثورة في مختلف مجالات الحياة مستقبلاً، لذا من المهم أن يكون لدى الجميع إلمام بسيط بكيفية عمل تقنيات الذكاء الاصطناعي وكيفية استخدامنا لها، وكذلك حث الطلبة المقبلين على اختيار تخصصاتهم مستقبلاً على تبني هذا المجال، حيث سنحتاج للمزيد من الخبرات والمتخصصين في الذكاء الاصطناعي وتطبيقاته في شتى المجالات».
المصدر: العرب القطرية
كلمات دلالية: قطر جامعة حمد بن خليفة الذكاء الاصطناعي الذکاء الاصطناعی فی الدکتور أیمن
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»