اهتمام عالمي بالنمذجة المتطورة وتوظيف الذكاء الاصطناعي في البرامج الاحصائية
تاريخ النشر: 29th, October 2023 GMT
ناقش عدد من المشاركين في جلسات مؤتمر تبادل البيانات الإحصائية والوصفية «SDMX» في اليوم الأول ، الاهتمام العالمي الكبير بالنمذجة المتطورة وتوظيف الذكاء الاصطناعي في البرامج الاحصائية.
وقال المشاركون خلال أولى جلسات المؤتمر الذي يقام لأول مرة في المنطقة ويستمر على مدار خمسة أيام في مملكة البحرين، إن هذا المؤتمر يهدف إلى بناء القدرات الإحصائية من خلال استقطاب الإحصائيين والخبراء والمحترفين في مجال البيانات، موضحين أهمية التعرف على آخر التطورات الدولية، والمساهمة في دعم عملية تبادل البيانات الإحصائية الوطنية.
وفي جلسة التقنيات والتكنولوجيات الجديدة لتبادل البيانات الإحصائية والبيانات الوصفية (SDMX) برئاسة السيد ماركو ماريني، من صندوق النقد الدولين تحدث جيف دانفورث من صندوق النقد الدولي، وإيليا جوريليك من EPAM، حول أهمية النمذجة واستكشاف طرق الاستفادة من الذكاء الاصطناعي الذي يرتبط ارتباطا كبيرا بتحليل الانظمة.
وأوضح المشاركون كيفية الاستحواذ على البيانات من خلال التمكن من أدوات التمكين الرقمي، والتي تستوجب استبعاد التطبيقات التقليدية، واستخدام الآلات والتفاعل معها وخصوصا في دول مجلس التعاون الخليجي. كما تحدث المشاركون عن التقنيات المعتمدة في بعض البلدان، مستعرضين مؤشرات نجاح كثيرة، والتي صاحبت استعراض بعض التقنيات والمبادرات في هذا المجال.
وقال المشاركون وجود تقنية متطورة توفر برنامج حي ويتم فيه تجميع المعلومات وتطويرها واحداث تفاعلات بينها تؤدي إلى إحداث بيانات مجدولة ومبنية بناءا صحيحا وعلميا، فالحديث هنا يختص بتصميم برمجي متطور جدا يتعلق بمعلومات وصفية واحصائية تستفيد منها جميع اللغات وهو تحول هام يتطلب خطوات من التغذية الاسترجاعية للمعلومات والنمذجة، وهناك امثلة كثيرة يمكن الاطلاع عليها وتطبيقها بما يوظف الذكاء الاصطناعي، فكلما كان المستخدمون أكثر ستكون النتائج أفضل.
وفيما يتعلق بالاستفادة من تقنيات الذكاء الاصطناعي في تصور SDMX، أكدت الدكتورة منيرة سالم البوعينين من جامعة البحرين أهمية بناء الجسور بين الذكاء الاصطناعي والنظام الاحصائي، فهي عملية خوارزمية توظف الآلات لتأخذ دور البشر، وتساعد في فهم الأسباب التي تدعوا لفهم البيانات.
وأضافت الدكتورة البوعينين أن «المعلومات الاحصائية تتم بجودة عالية، وتؤدي إلى وجود معلومات دقيقة تسهم في التقليل من المشاكل، وتتيح فرصة التركيز على المنجزات على الرغم من التحديات الموجودة مثل تعقيدات الدخول لهذه البيانات وتحليلها، وتصنيفها، فهي تقنيات معقدة تقلل من وقت انجاز الأعمال وتسهلها، حيث ان لإتمام هذه العملية ثمة حاجة إلى توفير مهارات معرفية مطلوبة، فهناك حاجة إلى تقوية الجهود وتحسين طرق جمع المعلومات، مع استخدام الرسوم المعرفية».
وبينت الدكتورة البوعينين أهمية الأتمتة، ووجود الآليات وتحقيق التطوير في هذا المجال، وهو أمر اهتمت به جامعة البحرين من خلال توفيرها لمنصة مفتوحة للطلاب تتعلق بهذا النظام لاستخدامها والتعامل معها، لافته إلى أن توظيف الذكاء الاصطناعي يؤدي إلى وجود معلومات ممتازة.
أما السيد إيف جاك، رئيس من منظمة اليونسيف، قائد المعلومات العلمية وحلول المعلومات، فتحدث عن تكييف البيانات ليتمكنوا من استخدامها في اليونسيف، مبينا وجود عملية كبيرة من إدارة معلومات وبيانات ضخمة تقدر ب٦٠٠ مجموعة معلوماتية مشيرا الى ان اليونسيف اهتمت في التعامل مع المعلومات والتسجيل عبر المنصة الاحصائية.
وقال السيد جاك «ثمة معلومات مهمة ترتبط بالمستخدمين، وثمة إنتاج لبيانات وإيجاد حلول تسهل عملية البناء، وفق أحدث التقنيات، والتي تضمن مراقبة مستمرة لحركة العمل على شبكة الانترنت، فالحديث دائما عن إيجاد معلومات وصفية تحقق استدامة التوظيف وتضمن الاستفادة والبناء عليها، فما يحدث هو تتبع للمسارات المعلوماتية وتبادلها والاستفادة منها، والتي تمكن من إدارة الأزمات ومواجهة المخاطر».
وحول محور الاستفادة من شهادات LLM مفتوحة المصدر لتسهيل الوصول إلى الإحصاءات الرسمية واكتشافها تحدث السيد أليساندرو بينيديتي، من شركة Sease Ltd، حول تطبيقات البحث والمصادر المفتوحة من خلال قيادة التقنيات، مبينا وجود نماذج متعددة للتعليم والربط بين النظم الاحصائية والمنصات الالكترونية، مضيفا إن «الأمر كله يرتبط بقوة البنية التحتية، والتي تتطلب التدريب على التعامل مع معلومات الانترنت، فهناك تقنيات متطورة،حيث بدأت الشركة منذ نوفمبر عام ٢٠٢٢ في التكيف مع التقنيات الحديثة أمام الكم الهائل من النموذج اللغوي».
وبين السيد أليساندرو أهمية تفكيك الشفرات والترجمات وغيرها، مستعرضا أوجه عمل الشركة مع البرمجيات المفتوحة المصدر وما تحققه من أهداف وأعمال ونتائج تتعلق ببيانات معرفية وإيجاد لغة برمجية تجمع الجميع اعتمادا على الذكاء الاصطناعي والتوسع فيه والاثراء حوله، والتعامل الأمثل مع تدفق البيانات بما يحقق أفضل النتائج.
وعن دمج دلالات SDMX في نظام بيئي مفتوح وكبير للرسوم البيانية المعرفية للبيانات تحدث السيد جيهانجير أمجد من Google Data Commons، ولويس جيراردو غونزاليس موراليس، من شعبة الإحصاءات في الأمم المتحدة (UNSD) حول أهمية التعامل الأمثل مع المعلومات المتاحة، واستخدام التقنيات لتحليلها فهو الأمر الذي يحدث الفارق مستعرضين الخرائط وكيفية استخدام وكالة الفضاء الدولية ناسا لها.
وقال السيدان جيهانجير و موراليس إن «خرائط جوجل تتغير وتتحدث باستمرار ويمكن استخدامها من الجميع فهي غير مخصصة للمهندسين أو المتخصصين فقط، مشيرين الى إن رسالتهم كعاملين في هذا الحقل هي تقديم الدعم لاستخدام البيانات الموجودة على هذه المنصات والاستفادة منها في مجالات مختلفة مثل التغير المناخي، مستعرضين أدواتهم المرئية وكيفية الوصول لمحركات البحث على منصاتهم.
وبينا وجود منصات الكترونية منذ أكثر من عشر سنوات، يتم فيها تجميع البيانات وربطها ببعض بحيث يمكن بناء العمليات، مستعرضين بيانات الامم المتحدة وعلاقتها بمبادرة تبادل البيانات الاحصائية والوصفية، في ظل وجود قاعدة بيانات عالمية، جاءت كنتاج لجهود مشتركة من دول مختلفة، موضحين وجود أكثر من ٢٠٠ مؤشر للمعلومات الاصلية ولتبادل البيانات ومشاركتها حيث جميعها تعتبر بناءا على كيان معرفي متقدم استخدم الادوات القياسية، وحقق أسس النمذجة الصحيحة.
وفي الجلسة الثانية التي اختصت بالابتكار في تصور SDMX برئاسة السيد إريك أنفار، من منظمة التعاون الاقتصادي والتنمية (OECD)، تحدث دانييل أوليفوتي، وإيف جاك، من اليونيسف عن الاستفادة من SDMX لإنشاء تجربة مخصصة لمستهلكي البيانات ، ثم تحدثت بيانكا ليجاني،من بنك التسويات الدولية، وماثيو نيلسون، ريجنولوجي حول إضفاء الطابع الديمقراطي على البيانات، وكيفية تمكين المستخدمين من خلال موصلات SDMX الجديدة والحالية.
بعد ذلك تحدث السيد ديفيد باراكلوف، من منظمة التعاون والتنمية في الميدان الاقتصادي، وروث بوزويلو مارتينيز، تم التطرق خلال الجلسة الى نظام SDMX للتمكين الجغرافي مع ArcGIS.
كما تم استعراض ابتكار SDMX: وتعزيز قيمة البيانات للسيدة تاويساب سريكوان من المكتب الإحصائي الوطني في تايلاند.
المصدر: صحيفة الأيام البحرينية
كلمات دلالية: فيروس كورونا فيروس كورونا فيروس كورونا الذکاء الاصطناعی الاستفادة من من خلال
إقرأ أيضاً:
تعرف على خطة غوغل التي استغرقت 25 عاما للوصول إلى الذكاء الاصطناعي
الذكاء الاصطناعي هو أعظم اختراع في عصرنا الحالي، ولكنه لم يكن ليوجد لولا بنية تحتية قوية يعمل من خلالها. تخيل أنك تتابع بناء ناطحة سحاب لعدة أشهر أو حتى سنوات، لا ترى سوى حفرة كبيرة في الأرض ولا يبدو أن هناك أي تقدّم، ثم فجأة، يظهر الهيكل الحديدي وترفع الأعمدة وتُبنى الجدران بوقت قصير، فالجزء الذي نراه جميعا يستغرق وقتا أقل بكثير من العمل الذي حصل تحت الأرض، لأنه من دون أساسات عميقة، لن يصمد المبنى.
الأمر مشابه تماما في عالم الذكاء الاصطناعي، فهناك أجزاء أساسية تُبنى في الخلفية على مدار سنوات أو حتى عقود، وهي غير مرئية للمستخدمين، لكنها ضرورية لتعمل منتجات الذكاء الاصطناعي بشكل صحيح.
وبحسب تقرير نشره موقع "بزنس إنسايدر" فإن شركة غوغل تمتلك معظم هذه البنية التحتية، كما أن شركات كبرى مثل مايكروسوفت وميتا وأمازون تمتلك بعضها، أما شركة "أوبن إيه آي" فهي تعمل بوتيرة متسارعة لبنائها، وما زال أمامها طريق طويل لتقطعه، وبالنسبة لشركة آبل فهي تفتقر بشكل كبير لبنية تحتية تُشغل ذكاء اصطناعيا خاصا بها وهو ما يشكل تحديا كبيرا لمستقبلها خاصة فيما يتعلق بهواتف آيفون.
ومن الجدير بالذكر أن هذه المشاكل التقنية قد لا تكون واضحة دائما لأنها تحدث خلف الكواليس، ولكن هذا العام برزت بشكل لافت عندما اضطرت آبل لتأجيل التحديث الكبير لمساعدها الذكي "سيري"، فالشركة تحاول تغيير "سيري" من جذوره ليتماشى مع عصر الذكاء الاصطناعي التوليدي، لكنها لم تكن مستعدة.
ويتطلب إصلاح "سيري" بالشكل المطلوب إنشاء بنية تحتية من الصفر، وإن لم تنجح في ذلك فقد تضطر للاعتماد على شركات أخرى منافسة، أو الدخول في صفقات استحواذ باهظة.
كيف استفادت غوغل من بنيتها التحتية لتطوير الذكاء الاصطناعي؟تحتاج آبل إلى الكثير من المكونات الأساسية لتطوير تقنيات الذكاء الاصطناعي، لكن لفهم الصورة بشكل أوضح، يكفي أن نلقي نظرة على ما بنته غوغل خلال العقود الماضية لتكون جاهزة لمواكبة تقدم الذكاء الاصطناعي.
إعلانعلى سبيل المثال، أطلقت غوغل مؤخرا أداة "فلو" (Flow) وهي أداة ذكاء اصطناعي توليدي تساعد المبدعين على إنتاج فيديوهات احترافية بسهولة، لكن خلف هذه الأداة البسيطة ظاهريا، هناك بنية تقنية ضخمة ومعقدة طورتها غوغل على مدى سنوات، كما أن نموذج "فيو" (Veo) -المخصص لتوليد الفيديو بالذكاء الاصطناعي، وهو الآن في نسخته الثالثة- لم يكن ليوجد لولا مقاطع فيديو يوتيوب التي تدرب عليها. من يملك يوتيوب؟ نعم، غوغل.
وتملك غوغل أيضا نموذج "جيميناي" روبوت الذكاء الاصطناعي منافس "شات جي بي تي"، بالإضافة إلى نموذج "إميجن" (Imagen) لتوليد الصور وهو في نسخته الرابعة.
ولو بحثنا عن منشأ الذكاء الاصطناعي سنجد أن تقنية لمحول (Transformer) التي ابتكرتها غوغل عام 2017 كانت الحجر الأساس الذي جعل الذكاء الاصطناعي ممكنا، بالإضافة إلى معالجات "تينسور" (Tensor) وهي شرائح متقدمة من غوغل.
ولكن القصة لا تنتهي هنا، فشركة غوغل تمتلك كنزا من البيانات، إذ إنها أرشفت محتويات الإنترنت لعقود، وهي تجمع كميات هائلة من المعلومات من مصادر متعددة، وكل هذه البيانات تُستخدم في تدريب نماذج الذكاء الاصطناعي لتصبح أكثر قوة ودقة.
في مقابلة أُجريت عام 2000 تحدث لاري بايج المؤسس المشارك لشركة غوغل عن رؤيته للذكاء الاصطناعي، وقال إن "الذكاء الاصطناعي سيكون النسخة النهائية لغوغل، والذي يفهم ما تريد بالضبط ويعطيك الإجابة الصحيحة"، وأضاف أن "الذكاء الاصطناعي سيكون قادرا على الإجابة عن أي سؤال، لأن كل شيء تقريبا موجود على الإنترنت، أليس كذلك؟".
وذكر أن غوغل كانت تمتلك حوالي 6 آلاف حاسوب لتخزين حوالي 100 نسخة من الإنترنت، وقال بايج مبتسما "الكثير من الحوسبة، والكثير من البيانات التي لم تكن متاحة من قبل، ومن وجهة نظر هندسية وعلمية فإن بناء أشياء للاستفادة من هذا يعد تمرينا فكريا مثيرا للاهتمام، لذلك توقعت أن أكون مشغولا بذلك لبعض الوقت".
ويبدو أنه عندما أصبحت غوغل شركة عامة كمزود لمحرك البحث في عام 2004، كانت بالفعل شركة متخصصة في الذكاء الاصطناعي.
وفي عام 2012، حقق الباحثون طفرة كبيرة في مجال الذكاء الاصطناعي عندما دربوا الحواسيب على التعرف على الأشياء وتصنيفها بمجرد "مشاهدتها"، إذ طور أليكس كريزيفسكي وإليا سوتسكيفر وجيفري هينتون -الذي كان مستشارهم في جامعة تورنتو- تقنية "أليكس نت" (AlexNet)، وأسسوا شركة "دي إن إن ريسيرتش" (DNNresearch) التي اشترتها غوغل عام 2013، مكتسبة جميع حقوق الملكية الفكرية بما في ذلك كود المصدر الخاص بها.
وفي عام 2014، اشترت غوغل شركة "ديب مايند" (DeepMind)، وهي مختبر سري للذكاء الاصطناعي يديره ديميس هسابيس ومصطفى سليمان، وهذه الخطوة ألهمت إيلون ماسك لإطلاق شركة الذكاء الاصطناعي "أوبن إيه آي" كقوة مقابلة تنافس غوغل في مجال الذكاء الاصطناعي.
وقد مضى على ذلك أكثر من عقد من الزمن، والآن أصبحت "ديب مايند" بقيادة هسابيس جزءا أساسيا من غوغل، وتقود كثيرا من مشاريع الذكاء الاصطناعي المهمة لديها، بينما يدير سليمان مشاريع الذكاء الاصطناعي الكبيرة في مايكروسوفت.
إعلانوقبل مؤتمر "غوغل آي/أو" عام 2016، استعانت الشركة بمجموعة من الصحفيين لتعريفهم بمفهوم "تعلم الآلة" -وهو فرع من فروع الذكاء الاصطناعي- وقضى هينتون ورواد الذكاء الاصطناعي الآخرون ساعات وهم يشرحون كيفية عمل هذه التقنية المعقدة، وفي العام ذاته كشفت الشركة عن "تي بي يو" (TPU)، وهي سلسلة من شرائح الذكاء الاصطناعي طورتها داخليا والتي تنافس وحدات معالجة الرسومات من شركة "إنفيديا".
وتستخدم غوغل هذه الشرائح في مراكز بياناتها الخاصة كما تؤجرها لشركات ومطورين آخرين عبر خدمتها السحابية، كما طورت إطار عمل للذكاء الاصطناعي يسمى "تينسورفلو" (TensorFlow) لدعم مطوري تعلم الآلة.
وتُخطط غوغل لإنشاء مراكز بيانات ذكاء اصطناعي بقيمة 75 مليار دولار هذا العام، ولتشغيل كل هذه المراكز أبرمت غوغل مؤخرا صفقات لتطوير 3 محطات نووية لتوفير طاقة كافية تُشغل مراكزها.
في عام 2018، بدا وكأن جهود شركة آبل في مجال الذكاء الاصطناعي قد بدأت تتجه نحو الطريق الصحيح. ففي بداية ذلك العام، جمع كرايج فيديريجي رئيس قسم البرمجيات في آبل كبار موظفيه وأعلن عن تعيين شخصية بارزة جديدة، حيث استقطبت الشركة جون جياناندريا من غوغل ليكون رئيس قسم الذكاء الاصطناعي لديها، والذي كان يدير مجموعات البحث والذكاء الاصطناعي في غوغل، بحسب تقرير من "بلومبيرغ".
ولكن، رغم ذلك ما زالت شركة آبل تفتقر للعديد من العناصر الأساسية أهمها البنية التحتية، فهي لا تدير العديد من مراكز البيانات الكبيرة، وتستعين بمنشآت غوغل من أجل مشاريع مهمة، فعندما يقوم مستخدمو أجهزة آبل بعمل نسخ احتياطية على "آيكلاود"، غالبا ما تُخزن هذه النسخ في مراكز بيانات غوغل، وفيما يتعلق بتدريب نماذج الذكاء الاصطناعي من آبل التي تُشغل "آبل إنتلجنس"، فقد طلبت آبل وصولا إضافيا إلى شرائح "تي بي يو" من غوغل لتنفيذ تدريبات للنماذج.
يُذكر أن آبل تمتلك الكثير من البيانات لكنها حذرة في استخدامها لتطوير الذكاء الاصطناعي بسبب مخاوف تتعلق بخصوصية المستخدمين، وقد حاولت معالجة الذكاء الاصطناعي على الأجهزة مثل آيفون، لكن هذه المشاريع تحتاج إلى قوة حوسبة ضخمة لا توفرها إلا مراكز البيانات.
ومن جهة أخرى كانت آبل بطيئة في جذب المواهب في مجال الذكاء الاصطناعي، فلم تسمح للباحثين بنشر الأوراق البحثية علنا أو فرضت قيودا على ذلك، حيث كان ذلك عنصرا أساسيا في استقطاب المواهب الحيوية على مدار سنوات عديدة.