حوارات مهمة في «منتدى دبي للمستقبل» عن علاقة الإنسان والآلة
تاريخ النشر: 27th, November 2023 GMT
دبي:«الخليج»
أكد خبراء في قطاعات الذكاء الاصطناعي والأتمتة والتعلّم الآلي خلال مشاركتهم في «منتدى دبي للمستقبل 2023»، أكبر تجمع عالمي لخبراء ومصممي المستقبل، أن العمل ضمن إطار مبتكر من التعاون، سيمكن البشر من الاستفادة المثلى من الذكاء الاصطناعي والتحكم الآلي، للمضي نحو المستقبل بخطى ثابتة وواثقة، وتحقيق هدف إعادة تصميم أشكال وأنظمة وأطر التعاون بين البشر في الجيل الواحد أو بين الأجيال المختلفة، وبين البشر والآلات، وبين الآلات نفسها.
وخلص المتحدثون في جلسات اليوم الأول، ضمن محور «علاقة الإنسان والآلة» أن التكامل بين الإنسان والآلة هو العلاقة المثالية التي تتطلع إليها المجتمعات حاضراً ومستقبلاً، للوصول إلى أفضل نتائج التحول الرقمي والذكي، وتعزيز استخدامات الذكاء الاصطناعي في مختلف مسارات التنمية ومناحي الحياة اليومية.
وناقشت جلسات المحور موضوعات «الاستعداد لعصر الذكاء الاصطناعي»، و«إمكانات محاسبة التكنولوجيا على قراراتها»، و«فرص تزويد التكنولوجيا القابلة للارتداء لنا بحاسة سادسة»، و«كيف يمكن للحكومات توظيف أدوات استشراف المستقبل؟»
باسكال فونج: علينا أن نتقدم بحذر ولكن بتفاؤل
وفي جلسة «الاستعداد لعصر الذكاء الاصطناعي، التي أدارها فيصل كاظم، من مركز الإمارات للثورة الصناعية الرابعة، قالت البروفيسورة باسكال فونج، مديرة مركز الذكاء الاصطناعي في جامعة هونغ كونغ «نحن بحاجة إلى أن نكون واعين لما نطوّره، ولكن في نهاية المطاف، تطرح الأسئلة الأخلاقية في مرحلة التنفيذ، وليس التطوير. ومن ثم، علينا أن نتقدم بحذر، ولكن بتفاؤل».
ويرلي: نحتاج لموقف متوازن تجاه التكنولوجيا في العالم الحقيقي
وقال ويرلي، من شركة «سترينغ ووركس»، إننا نمر بلحظة مهمة من الزمن، مع وجود مدة وجيزة للتأثير في التكنولوجيا، داعياً إلى أخذ الأخلاقيات في الحسبان، مع مواصلة التطوير والتقدم. واستشهد بنهج اليابان المتساهل تجاه لوائح الذكاء الاصطناعي عندما دعا إلى اتخاذ موقف متوازن تجاه تنفيذ التكنولوجيا والذكاء الاصطناعي في العالم الحقيقي.
هدى الخزيمي: تطبيق مبدأ السيادة في تطوير الذكاء الاصطناعي
وقالت البروفيسور هدى الخزيمي، من مركز «إماراتسيك للأبحاث»، إن الذكاء الاصطناعي كشف عن كثير من القضايا العالمية التي تحتاج إلى معالجة، مع وجود إرادة لدى الجميع كي يكونوا جزءاً من المشاركة في تطوير الحل. داعيةً إلى تطبيق مبدأ من الحلول التي تتمتع بالسيادة التكنولوجية، حيث تتماشى البنية التحتية لتكنولوجيا للمعلومات والاتصالات والتكنولوجيا مع قوانين ولوائح الدول.
أوليفييه ديسبي: الحياة مملوءة بالمخاطر والمستقبل ليس واحداً منها
وفي جلسة «هل يمكن محاسبة التكنولوجيا على قراراتها؟»، قال أوليفييه ديسبي من مجموعة «أكسا» إن الحياة مملوءة بالمخاطر ولكن المستقبل ينبغي أن لا يكون واحداً منها. لأن حوكمة قطاع التكنولوجيا من المخاطر العالمية. مؤكداً الحاجة إلى حلول عالمية.
جوون براونر: أنظمته مبنية على بيانات ينتجها البشر ويصنفونها
وقالت الدكتورة جوون براونر، من الجمعية الملكية «لا يوجد شيء مصطنع في الذكاء الاصطناعي. فأنظمته بشرية مبنية على البيانات التي ينتجها البشر ويجمعونها ويصنفونها. وهنا يتسلل التحيز. ويجب تبادل أفضل الممارسات بين الحكومات في هذا المجال الحيوي للمستقبل.
باول سويبودا: الأجهزة القابلة للارتداء تعزز حياة الإنسان
وضمن جلسة «هل تزوّدنا التكنولوجيا القابلة للارتداء بحاسة سادسة جديدة؟»، قال باول سويبودا، مؤسس شركة «نيوسنشوري»، إن الأجهزة القابلة للارتداء تشبه الرفاق، وهي أربع فئات تشمل الأجهزة القابلة للابتلاع، والأطراف الإلكترونية، والأجهزة القابلة للارتداء كما نعرفها، وأجهزة المرافقة الذكية خارج الجسم. لافتاً إلى أنهاليست هدفاً في حد ذاتها، بل هي تقنيات تعزز حياة الإنسان.
باولو داريو: وصلنا إلى 1.1 مليار جهاز قابل للارتداء عام 2022
وقال البروفيسور باولو داريو، كبير العلماء في «مختبرات دبي للمستقبل»، إن مفهوم الأجهزة القابلة للارتداء قائم على تحقيق الهدف منها وهو تحسين القدرات البشرية للتعامل مع التحديات. ومنافعها واستخداماتها المتزايدة أسهمت في دفع القطاع للوصول إلى 1.1 مليار جهاز قابل للارتداء عام 2022.
كين تشوا: للأجهزة القابلة للارتداء وظائف محددة بمختلف الفئات
والأنواع وقال كين تشوا، مؤسس ومدير إدارة شركة «ذيز أبيليتيز»، إن الحاجة تنمو إلى الأجهزة القابلة للارتداء، فهي تؤدي وظائف محددة، عبر مختلف الفئات والأنواع. ومن الضرورة اختبارها من المجتمع لضمان اعتمادها.
أراثي كريشنان: مخاطر المستقبل مترابطة
وفي ختام جلسات اليوم الأول التي حملت عنوان «كيف يمكن للحكومات توظيف أدوات استشراف المستقبل؟» أكدت أراثي كريشنان، خبيرة توقع المخاطر واستشراف المستقبل، أن أنظمتنا الحسية بشراً ومجتمعات، ليست مهيأة لفهم المخاطر الناشئة بشكل شمولي للتعاطي معها، لأنها تنظر إلى المخاطر في صوامع منفصلة، وتصنفها مخاطر اقتصادية وصحية وطبيعية وما إلى ذلك، في حين أنها مترابطة في الواقع.
شيريل تشونغ: تكامل مراحل سلسلة القيمة في منظومة استشراف
المستقبل وأكدت شيريل تشونغ، المتخصصة في استشراف مستقبل السياسات العامة، ضرورة التمييز بين استشراف المستقبل لمجرد الاستشراف واستخدام هذا الاستشراف من أجل التقدم البشري. داعية إلى تكامل كل مراحل سلسلة القيمة في منظومة استشراف المستقبل ومأسستها على مختلف المستويات لبناء المستقبل الذي نتطلع إليه.
ديميتري لورنزاني: الذكاء الجمعي يترجم إلى رؤى تبني المستقبل
وأكد ديميتري لورنزاني، من فريق عمل نائب الرئيس التنفيذي للمفوضية الأوروبية، أن الذكاء الجمعي يترجم الوعي العام إلى رؤى وطموحات قادرة على بناء المستقبل الذي تتطلع إليه المجتمعات البشرية. داعياً إلى التفاؤل والإيجابية في مقاربة تحديات المستقبل وتحويلها إلى فرص.
المصدر: صحيفة الخليج
كلمات دلالية: فيديوهات دبي للمستقبل إمارة دبي الأجهزة القابلة للارتداء استشراف المستقبل الذکاء الاصطناعی
إقرأ أيضاً:
احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
مع تقدم الذكاء الاصطناعي وتغلغله في حياتنا على نحو متزايد، يبدو من الواضح أنه من غير المحتمل أن يخلق المدينة التكنولوجية الفاضلة ومن غير المرجح أن يتسبب في محو البشرية. النتيجة الأكثر احتمالا هي مكان ما في المنتصف ــ مستقبل يتشكل من خلال الطوارئ، والحلول الوسط، وعلى جانب عظيم من الأهمية، القرارات التي نتخذها الآن حول كيفية تقييد وتوجيه تطور الذكاء الاصطناعي.
باعتبارها الرائدة عالميا في مجال الذكاء الاصطناعي، تضطلع الولايات المتحدة بدور مهم بشكل خاص في تشكيل هذا المستقبل. لكن خطة عمل الذكاء الاصطناعي التي أعلن عنها الرئيس الأمريكي دونالد ترامب مؤخرا بددت الآمال في تعزيز الإشراف الفيدرالي، فاحتضنت بدلا من ذلك نهجا داعما للنمو في تطوير التكنولوجيا. وهذا يجعل التركيز من جانب حكومات الولايات، والمستثمرين، والجمهور الأمريكي على أداة مُـساءلة أقل إخضاعا للمناقشة، ألا وهي حوكمة الشركات ضرورة أشد إلحاحا. وكما توثق الصحفية كارين هاو في كتابها «إمبراطورية الذكاء الاصطناعي»، فإن الشركات الرائدة في هذا المجال منخرطة بالفعل في المراقبة الجماعية، وهي تستغل عمالها، وتتسبب في تفاقم تغير المناخ. من عجيب المفارقات هنا أن كثيرا منها شركات منفعة عامة (PBCs)، وهي بنية حوكمة يُزعم أنها مصممة لتجنب مثل هذه الانتهاكات وحماية البشرية. ولكن من الواضح أنها لا تعمل على النحو المنشود.
كانت هيكلة شركات الذكاء الاصطناعي على أنها شركات منفعة عامة شكلا ناجحا للغاية من أشكال الغسيل الأخلاقي. فبإرسال إشارات الفضيلة إلى الهيئات التنظيمية وعامة الناس، تخلق هذه الشركات قشرة من المساءلة تسمح لها بتجنب المزيد من الرقابة الجهازية على ممارساتها اليومية، والتي تظل مبهمة وربما ضارة. على سبيل المثال، تُـعَـد xAI التي يملكها إيلون ماسك شركة منفعة عامة تتمثل مهمتها المعلنة في «فهم الكون». لكن تصرفات الشركة ــ من بناء كمبيوتر خارق مُـلَـوِّث في السر بالقرب من حي تقطنه أغلبية من السود في ممفيس بولاية تينيسي، إلى إنشاء روبوت محادثة يشيد بهتلر ــ تُظهر قدرا مزعجا بشدة من عدم الاكتراث بالشفافية، والرقابة الأخلاقية، والمجتمعات المتضررة.
تُعد شركات المنفعة العامة أداة واعدة لتمكين الشركات من خدمة الصالح العام مع السعي إلى تحقيق الربح في الوقت ذاته. لكن هذا النموذج، في هيئته الحالية ــ خاصة في ظل قانون ولاية ديلاوير، الولاية التي تتخذها معظم الشركات العامة الأمريكية مقرا لها ــ مليء بالثغرات وأدوات الإنفاذ الضعيفة، وهو بالتالي عاجز عن توفير الحواجز اللازمة لحماية تطوير الذكاء الاصطناعي. لمنع النتائج الضارة، وتحسين الرقابة، وضمان حرص الشركات على دمج المصلحة العامة في مبادئها التشغيلية، يتعين على المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس المطالبة بإعادة صياغة شركات المنفعة العامة وتعزيز قدراتها. من غير الممكن تقييم الشركات أو مساءلتها في غياب أهداف واضحة، ومحددة زمنيا، وقابلة للقياس الكمي. لنتأمل هنا كيف تعتمد شركات المنفعة العامة في قطاع الذكاء الاصطناعي على بيانات منافع شاملة وغير محددة يُزعَم أنها توجه العمليات. تعلن شركة OpenAI أن هدفها هو «ضمان أن يعود الذكاء الاصطناعي العام بالفضل على البشرية جمعاء»، بينما تهدف شركة Anthropic إلى «تحقيق أعظم قدر من النتائج الإيجابية لصالح البشرية في الأمد البعيد». المقصود من هذه الطموحات النبيلة الإلهام، لكن غموضها من الممكن أن يستخدم لتبرير أي مسار عمل تقريبا ــ بما في ذلك مسارات تعرض الصالح العام للخطر. لكن قانون ولاية ديلاوير لا يُـلزِم الشركات بتفعيل منفعتها العامة من خلال معايير قابلة للقياس أو تقييمات مستقلة. ورغم أنها تطالب بتقديم تقارير كل سنتين حول أداء المنفعة، فإنها لا تلزم الشركات بإعلان النتائج. بوسع الشركات أن تفي بالتزاماتها ــ أو تهملها ــ خلف الأبواب المغلقة، دون أن يدري عامة الناس شيئا. أما عن الإنفاذ، فبوسع المساهمين نظريا رفع دعوى قضائية إذا اعتقدوا أن مجلس الإدارة فشل في دعم مهمة الشركة في مجال المنفعة العامة. لكن هذا سبيل انتصاف أجوف، لأن الأضرار الناجمة عن الذكاء الاصطناعي تكون منتشرة، وطويلة الأجل، وخارجة عن إرادة المساهمين عادة. ولا يملك أصحاب المصلحة المتضررون ــ مثل المجتمعات المهمشة والمقاولين الذين يتقاضون أجورا زهيدة ــ أي سبل عملية للطعن في المحاكم. وللاضطلاع بدور حقيقي في حوكمة الذكاء الاصطناعي، يجب أن يكون نموذج «شركات المنفعة العامة» أكثر من مجرد درع للسمعة. وهذا يعني تغيير كيفية تعريف «المنفعة العامة»، وحوكمتها، وقياسها، وحمايتها بمرور الوقت. ونظرا لغياب الرقابة الفيدرالية، يجب أن يجري إصلاح هذا الهيكل على مستوى الولايات. يجب إجبار شركات المنفعة العامة على الالتزام بأهداف واضحة، وقابلة للقياس، ومحددة زمنيا، ومكتوبة في وثائقها الإدارية، ومدعومة بسياسات داخلية، ومربوطة بمراجعات الأداء والمكافآت والتقدم الوظيفي. بالنسبة لأي شركة عاملة في مجال الذكاء الاصطناعي، من الممكن أن تشمل هذه الأهداف ضمان سلامة نماذج المؤسسات، والحد من التحيز في مخرجات النماذج، وتقليل البصمة الكربونية الناجمة عن دورات التدريب والنشر، وتنفيذ ممارسات العمل العادلة، وتدريب المهندسين ومديري المنتجات على حقوق الإنسان والأخلاقيات والتصميم التشاركي. الأهداف المحددة بوضوح، وليس التطلعات الغامضة، هي التي ستساعد الشركات على بناء الأساس للمواءمة الداخلية الجديرة بالثقة والمساءلة الخارجية. يجب أيضا إعادة تصور مجالس الإدارة وعملية الإشراف. ينبغي لمجالس الإدارة أن تضم مديرين ذوي خبرة يمكن التحقق منها في أخلاقيات الذكاء الاصطناعي، والسلامة، والأثر الاجتماعي، والاستدامة. يجب أن يكون لكل شركة مسؤول أخلاقي رئيسي يتمتع بتفويض واضح، وسلطة مستقلة، والقدرة على الوصول المباشر إلى مجلس الإدارة. ينبغي لهؤلاء المسؤولين أن يشرفوا على عمليات المراجعة الأخلاقية وأن يُمنحوا سلطة وقف أو إعادة تشكيل خطط المنتجات عند الضرورة. وأخيرا، يجب أن تكون شركات الذكاء الاصطناعي المهيكلة كمؤسسات منفعة عامة مُلـزَمة بنشر تقارير سنوية مفصلة تتضمن بيانات كاملة ومصنفة تتعلق بالسلامة والأمن، والتحيز والإنصاف، والأثر الاجتماعي والبيئي، وحوكمة البيانات. وينبغي لعمليات تدقيق مستقلة ــ يديرها خبراء في الذكاء الاصطناعي، والأخلاقيات، والعلوم البيئية، وحقوق العمال ــ أن تعكف على تقييم صحة هذه البيانات، بالإضافة إلى ممارسات الحوكمة في الشركة وتواؤمها في عموم الأمر مع أهداف المنفعة العامة.
أكدت خطة عمل ترامب للذكاء الاصطناعي على عدم رغبة إدارته في تنظيم هذا القطاع السريع الحركة. ولكن حتى في غياب الإشراف الفيدرالي، بوسع المشرعين على مستوى الولايات، والمستثمرين، وعامة الناس تعزيز حوكمة إدارة الشركات للذكاء الاصطناعي بممارسة الضغوط من أجل إصلاح نموذج شركات المنفعة العامة. يبدو أن عددا متزايدا من قادة التكنولوجيا يعتقدون أن الأخلاقيات أمر اختياري. ويجب على الأمريكيين أن يثبتوا أنهم على خطأ، وإلا فإنهم يتركون التضليل، والتفاوت بين الناس، وإساءة استخدام العمالة، وقوة الشركات غير الخاضعة للرقابة تشكل مستقبل الذكاء الاصطناعي.
كريستوفر ماركيز أستاذ إدارة الأعمال في جامعة كامبريدج ومؤلف كتاب «المستغلون: كيف تقوم الشركات بخصخصة الأرباح وتأميم التكاليف»
خدمة «بروجيكت سنديكيت»