نشر موقع "بلومبيرغ" تقريرًا تناول فيه تهديدات الذكاء الاصطناعي المتمثلة في وصفات سهلة لصنع أسلحة بيولوجية، والتي باتت تشكل قلقًا جديدًا للأمن العالمي، مبينًا أن الباحث روكو كاساجراندي كان قد دخل إلى أرض البيت الأبيض حاملاً صندوقًا أسودًا أكبر قليلاً من مكعب روبيك، وكان بداخله اثني عشر أنبوب اختبار تحتوي على مكونات - إذا تم تجميعها بشكل صحيح - لديها القدرة على التسبب في الوباء التالي، فقد أعطاه روبوت محادثة الذكاء الاصطناعي الوصفة القاتلة.



وأضاف الموقع، في تقريره الذي ترجمته "عربي 21"، أن كاساجراندي، عالم الكيمياء الحيوية ومفتش الأسلحة السابق للأمم المتحدة، لم يكن يخطط لإطلاق سلاح بيولوجي في غرفة مليئة بمسؤولي البيت الأبيض، لكن كان هناك لإطلاعهم على الطرق العديدة التي يمكن للذكاء الاصطناعي من خلالها تعليم المستخدمين كيفية صنع فيروسات خطيرة. وقال في غرفة مليئة بالمسؤولين الأمريكيين في ربيع سنة 2023 إن أدوات مثل شات جي بي تي يمكن أن تساعد الإرهابيين في تحديد العوامل البيولوجية القوية وتأمين المواد اللازمة لصنعها. ولن يمر وقت طويل قبل أن يتمكن الذكاء الاصطناعي ليس فقط من المساعدة في إعادة إنشاء مسببات الأمراض الموجودة، ولكن أيضًا في ابتكار مسببات أمراض أكثر خطورة.

وقال الموقع إن أخبار الاجتماع انتشرت عبر شبكات الأمن في البلاد، وقد سعى المسؤولون من وزارات الدفاع والخارجية والأمن الداخلي والتجارة، من بين آخرين، إلى تقديم عروض توضيحية لأنفسهم طوال ذلك الربيع والصيف. وكان كاساجراندي يعمل مع شركة ناشئة في مجال الذكاء الاصطناعي أرادت نشر الكلمة حول هذه المخاطر. وقال أشخاص مطلعون، الذين طلبوا عدم ذكر أسمائهم لمناقشة قضايا الأمن القومي الحساسة، إن الاجتماعات كانت بمثابة جرس إنذار حول مدى عدم استعداد الولايات المتحدة لما يمكن أن يساعد الذكاء الاصطناعي في خلقه. وسيساعد هذا الإدراك في النهاية في تشكيل الإجراءات التي ستتخذها إدارة الرئيس جو بايدن للحماية من التهديد.

وأوضح الموقع أن الذكاء الاصطناعي يغير العالم بطرق واضحة وغير واضحة. فهناك استخدامات عادية مثل شات جي بي تي مما يسهل على الناس العثور على وصفات تحتوي على مكونات في مخزنهم. وهناك استخدامات خطرة، مثل الأتمتة التي لديها القدرة على القضاء على الوظائف. لقد توصل عمل كاساجراندي إلى فكرة أكثر تهديدًا: وهي أن الذكاء الاصطناعي يمكن أن يساعد في إنشاء أسلحة الدمار الشامل - ليس النوع الذي تصنعه الجيوش في الصحاري النائية بل تلك التي يمكن تصنيعها في مختبر في الطابق السفلي أو في المدرسة الثانوية.

وذكر الموقع أن استخدام الأمراض كأسلحة ليس بالأمر الجديد بالطبع، وتُظهر وثائق من القرن الثامن عشر ضباطًا بريطانيين يناقشون نشر الجدري بين الأمريكيين الأصليين من خلال البطانيات. فقد أدى استخدام الأسلحة الكيميائية مثل غاز الخردل في الحرب العالمية الأولى إلى بروتوكول جنيف في سنة 1925، والذي تم تصميمه للحد من تطوير الأسلحة الكيميائية والبيولوجية. وكان ذلك غير فعال إلى حد كبير. ففي الحرب العالمية الثانية؛ ورد أن اليابان أسقطت براغيث موبوءة بالطاعون من الطائرات فوق ريف الصين. وفي سبعينيات القرن العشرين؛، كانت هناك معاهدة عالمية أخرى لحظر تطوير واستخدام الأسلحة البيولوجية. ومع ذلك، لم يكن هذا الاتفاق قابلاً للتنفيذ، ويقول مجتمع الاستخبارات الأمريكي إن العديد من البلدان من المرجح أن تدير مثل هذه البرامج.

وبحسب الموقع، لم تعمل التطورات العلمية في السنوات الأخيرة إلا على تضخيم طرق التلاعب بالبيولوجيا لإحداث الضرر.

الواقع أن هناك العديد من التحديات التي تواجه التكنولوجيا، أولها القدرة على تعديل الشفرات الجينية للكائنات الحية، وهو ما قد يجعل من الممكن، على سبيل المثال، إحياء فيروس منقرض مرتبط بالجدري. وإذا أضفنا إلى ذلك التقدم في علم الأحياء الحاسوبي و"المختبرات السحابية" ــ التي تسمح للعلماء بمحاكاة التجارب عبر الإنترنت أو إجرائها عن بعد من خلال برامج تنسق مع الروبوتات ــ فمن السهل الآن على الجهات الفاعلة السيئة تطوير أسلحة الدمار الشامل بسرعة وبتكلفة زهيدة دون الوصول إلى البنية الأساسية التقليدية للمختبرات. وتسهل أدوات مثل شات جي بي تي من أوبن إيه آي الكشف عن رؤى حول الفيروسات الضارة والبكتيريا والكائنات الحية الأخرى مقارنة بما كان ممكنًا تقليديًا باستخدام أدوات البحث الحالية.

وتابع الموقع أن الجمع بين هذه الابتكارات ــ علم الأحياء الاصطناعي والذكاء الاصطناعي ــ قد يتحول إلى كابوس للحكومات، التي كانت بطيئة في وضع أنظمة الرقابة.

ونقل الموقع عن كيفن إسفيلت، عالم الأحياء وأستاذ مشارك في معهد ماساتشوستس للتكنولوجيا، قوله إنه مع استمرار تحسن الذكاء الاصطناعي التوليدي، سيتمكن الناس من استخدامه "لإنشاء أشياء أكثر بشاعة"، في إشارة إلى الفيروسات والسموم التي لا وجود لها حاليًا. وأضاف إسفيلت: "اليوم لا يمكننا الدفاع ضد هذه الأشياء".

ودلل الموقع على ذلك ببحث قامت به شركة ناشئة مدعومة من أمازون، وألفابيت وأنثروبيك عن كاساجراندي منذ أكثر من سنة لاختبار إمكانات الشرير الخارق لبرنامج الدردشة الجديد كلود.


اختبار الضغط
وأوضح الموقع أن الهدف الأساسي وراء بناء كلود هو جعل أدوات الذكاء الاصطناعي أكثر أمانًا، وقد انفصل مؤسسو أنثروبيك عن أوبن إيه آي، مبتكر شات جي بي تي، في سنة 2020 بسبب الخلافات حول مدى سرعة الشركة في الدفع نحو السوق دون وضع ضوابط وتوازنات كافية. وقال المؤسس المشارك لشركة أنثروبيك جاك كلارك في مقابلة إنه وفريقه يعتقدون أنه مع ضخ المزيد من البيانات في منتجات الذكاء الاصطناعي، فإنها ستصبح أفضل في إخراج ردود دقيقة حول الأشياء التي يحتمل أن تكون خطيرة. وستسعى المؤسسة الجديدة إلى أن تكون أكثر مسؤولية اجتماعية في نظر مؤسسيها، واختبار الحقائق غير المريحة.

وبين الموقع أن كلود، مثل شات جي بي تي، هو روبوت دردشة مدعوم بما يسمى نموذج اللغة الكبير، أو إل إل أم، والذي يعالج كمية هائلة من النص لتوليد استجابات تشبه الإنسان بشكل مذهل. وقال كلارك، الذي كان يعمل في بلومبيرغ نيوز، إن فريق أنثروبيك كان قلقًا بشكل خاص عندما يتعلق الأمر بمجال علم الأحياء. وكان لديهم شكوك في أن كلود وبوتات الدردشة الأخرى قد تكون قادرة على تدريب المستخدمين على كيفية التلاعب بالبيولوجيا لإحداث الضرر.

ولم يكن لدى أنثروبيك الخبرة لتقييم القدرات العلمية لكلود داخليًا؛ حيث يقول كلارك إنه أخبر كاساجراند، الذي أسس في سنة 2005 شركة علمية وأمنية تسمى غريفون ساينتفيك والتي لديها عقود تمتد من البنتاغون إلى المعاهد الوطنية للصحة: "أريدك أن تتحقق من افتراضاتنا". فعندما يتعلق الأمر بتقييم المخاطر البيولوجية، فإن كاساجراند هو المستشار المفضل في واشنطن.

وأضاف الموقع أن كاساجراند شكل فريقًا من الخبراء في علم الأحياء الدقيقة وعلم الفيروسات لاختبار كلود. ولمدة 150 ساعة، لعبوا دور الإرهابي البيولوجي وأمطروا النموذج بالأسئلة. فقد سألوه عن مسببات الأمراض التي قد تسبب أكبر قدر من الضرر، وكيفية شراء المواد اللازمة لصنعها في المختبر وكيفية زراعة هذه المواد.


واستعرض كلود مهارة للمساعدة في التخطيط؛ حيث اقترح طرقًا لدمج مسببات الأمراض في صاروخ لضمان أكبر قدر ممكن من الضرر، كما كان لديه أفكار حول كيفية اختيار أفضل الظروف الجوية والأهداف للهجوم.

لقد فاجأت براعة كلود حتى كاساجراند الذي أمضى عقودًا من الزمن في تقديم المشورة للولايات المتحدة حول كيفية الدفاع ضد أسلحة الدمار الشامل وغيرها من التهديدات البيولوجية، وهو قلق بشأن مدى سهولة الذكاء الاصطناعي في صنع مثل هذه الأسلحة نظرًا لسهولة الوصول إلى المواد.

وقال: "حتى لو كانت لديك التعليمات المثالية لصنع قنبلة نووية، فسيظل الأمر يكلف عشرات الملايين - إن لم يكن مئات الملايين - من الدولارات لاتباع هذه التعليمات. ولسوء الحظ، هذا ليس هو الحال مع البيولوجيا". على سبيل المثال، يسمح الجيل الجديد من الآلات سهلة الاستخدام الآن للناس بطباعة الحمض النووي دون الكثير من الإشراف. ويمكن للذكاء الاصطناعي أن يساعد المبتدئين في تعلم كيفية استخدامها.

وأشار الموقع إلى أن أنثروبيك منحت كاساجراند حرية كاملة لإطلاع الحكومة على نتائجه. ولإيصال هذه النقطة إلى مسؤولي إدارة بايدن، فلجأ إلى أستاذ معهد ماساتشوستس للتكنولوجيا إسفيلت لشراء الحمض النووي الاصطناعي اللازم لتصميم أحد مسببات الأمراض التي اقترحها كلود. ولم يكن من الصعب الحصول على المواد، التي ليست معدية بدون عمل مختبري فني، وحتى أن كلود قدم نصائح حول كيفية شرائها.

ثم قام كاساغراندي بتجميع صندوقه الأسود من أنابيب الاختبار لحملها إلى مبنى أيزنهاور التنفيذي، بجوار الجناح الغربي. لقد استغرق الأمر منه أسابيع من أول اختبار لكلود إلى الحصول على المكونات اللازمة للسلاح البيولوجي وإحضارها إلى أحد المكاتب الحكومية الأكثر حراسة في البلاد.

الاهتمام الرئاسي
في الأشهر التي تلت إحاطات كاساغراندي السنة الماضية؛ أصبحت إدارة بايدن مهووسة بشكل متزايد بالتهديدات البيولوجية للذكاء الاصطناعي. وقد أبدى بايدن ورئيس أركانه ومستشاره للأمن القومي ونائبة الرئيس كامالا هاريس اهتمامًا شخصيًا، وفقًا لأشخاص مطلعين على الأمر. ورفض البيت الأبيض التعليق.

وقال الموقع إن البيت الأبيض حصل، في تموز/ يوليو من السنة الماضية، على التزامات طوعية من شركات الذكاء الاصطناعي الرائدة بما في ذلك أوبن إيه آي وأنثروبيك ومايكروسوفت لاختبار أنظمتها الخاصة لتقييم "أهم مصادر مخاطر الذكاء الاصطناعي" في مجال الأمن البيولوجي، لكن الأمر لم يتوقف عند هذا الحد.

وبحلول نهاية تشرين الأول/ أكتوبر؛ أصدرت إدارة بايدن أمرًا تنفيذيًا شاملاً، دعت فيه كل وكالة فيدرالية تقريبًا إلى المساعدة في التخفيف من تهديدات الذكاء الاصطناعي. وفرضت إشرافًا أكبر على الأبحاث الممولة من الحكومة باستخدام تسلسلات الحمض النووي من صنع الإنسان، مثل تلك الموجودة في الصندوق الأسود لكاساجراندي. ومهدت الطريق لمعهد سلامة الذكاء الاصطناعي الذي سيجمع بين الحكومة والصناعة والأوساط الأكاديمية لمراجعة النماذج. ودعت الحكومة إلى وضع إرشادات ومتطلبات إعداد التقارير لأدوات الذكاء الاصطناعي المدربة على البيانات البيولوجية مثل الحمض النووي والحمض النووي الريبي، والتي يمكن أن تخلق كائنات حية جديدة بسمات تجعلها أكثر خطورة. وقالت هاريس، في حديثها في حدث كشف النقاب عن الخطة في تشرين الثاني/ نوفمبر، إن الأسلحة البيولوجية المصاغة بالذكاء الاصطناعي "يمكن أن تعرض وجود البشرية للخطر".

لكن المنتقدين يقولون إن الأمر التنفيذي لم يمنح الحكومة القوة الكافية. وتعتمد العديد من المقترحات على قيام الشركات بتسليم البيانات إلى الحكومة أو الالتزام بالمبادئ التوجيهية دون التهديد بالعقوبات. وقال توم إنجليسبي، مدير مركز جونز هوبكنز للأمن الصحي، إن الحكومة يجب أن تتخذ موقفًا أقوى، وتدقيق شركات الذكاء الاصطناعي بانتظام والتفكير في كيفية تحميلها المسؤولية إذا تسببت الأدوات في ضرر. وقال إن الأمر التنفيذي لا يذهب إلى حد كافٍ، في معالجة منتجات الذكاء الاصطناعي الأكثر تعقيدًا المعروفة باسم أدوات التصميم البيولوجي.

وأفاد الموقع أن إدارة بايدن ليست عمياء عن التحديات المقبلة، فقد قال تقرير صادر عن وزارة الأمن الداخلي، صدر هذا الصيف، إنه لا توجد وكالة واحدة مسؤولة عن معالجة هذه المخاطر، مما يخلق تحديات للتنسيق والتنظيم.

ولفت الموقع إلى أن العلماء يريدون أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤول. واعتبارًا من 8 حزيران/ يوليو، وقع 174 عالمًا على خطاب يتعهدون فيه باستخدام الذكاء الاصطناعي لدعم الأبحاث التي تمنع سيناريوهات "يوم القيامة" من خلال مراقبة البرامج عن كثب والإبلاغ عن الممارسات. وجاء في الخطاب الذي وقعه شخصيات بارزة من الحائز على جائزة نوبل فرانسيس أرنولد إلى رائد الجينوم جورج تشرش، أن فوائد الذكاء الاصطناعي "تفوق بكثير احتمالات الضرر".

وأضاف الموقع أن التوترات تستمر في الاشتعال بين "متشائمي" الذكاء الاصطناعي وأولئك مثل بارزيلاي الذين يعتقدون أنه يمكن أن يحدث ثورة في الطب والتكنولوجيا. وفي واشنطن؛ يحث المسؤولونالعلماء يريدون أن يُنظر إليهم على أنهم يستخدمون الذكاء الاصطناعي بشكل مسؤولالأكثر تفاؤلاً في إدارة بايدن شركات التكنولوجيا الأمريكية على المضي قدمًا أمام منافسيها، وخاصة تلك الموجودة في الصين، حيث تدفع الطموحات للسيطرة على مجالات الذكاء الاصطناعي والتكنولوجيا الحيوية الأمة إلى الاستثمار بكثافة في البيولوجيا الاصطناعية وتجميع المعلومات الجينية.

ووفق الموقع فقد قال درو إندي، الأستاذ المشارك في الهندسة الحيوية بجامعة ستانفورد: "أنا قلق بشأن الكيفية التي يمكن بها للدول القومية تسليح البيولوجيا، وليس الأفراد" من خلال الوصول إلى برامج الدردشة الآلية.

وأوضح الموقع أن أنثروبيك ولا أوبن إيه آي لم يشكو علنًا من أمر بايدن. ويقولون إنهم يعملون عن كثب وقالت أوبن إيه آي، التي وظفت أيضًا كاساجراندي في الخريف الماضي لاختبار شات جي بي تي، في كانون الثاني/ يناير أن برنامج الدردشة الآلية الخاص بها يشكل "على الأكثر" خطرًا طفيفًا في مساعدة الناس على خلق تهديدات بيولوجية عند مقارنته بأدوات موجودة مثل بحث غوغل - على الرغم من أن تحليلها كان محل نزاع. 

وقال كلارك؛ المؤسس المشارك لشركة أنثروبيك إن الشركة تستخدم تكتيكات مماثلة للحد من المعلومات الخطيرة، وأجرت تغييرات لمعالجة نقاط الضعف التي حددها غريفون، لكن هناك حاجة إلى مزيد من العمل. وأضاف: "أعتقد أن شركات الذكاء الاصطناعي الآن عبارة عن مؤسسات مالية ليس لديها محاسبون. هناك سوق كامل يجب بناؤه هنا من الأطراف الثالثة التي تقوم باختبار وتقييم وضمان أنظمة الذكاء الاصطناعي".

واختتم الموقع تقريره مبينًا أن العمل المبكر لشركة أنثروبيك مع شركة كاساجراند، غريفون، قد أتى بثماره بالفعل. ومنذ مظاهرات البيت الأبيض السنة الماضية، تدفقت شركات الذكاء الاصطناعي الأخرى إلى غريفون لإجراء اختبارات السلامة. واستحوذت ديلويت، التي وصفت غريفون بأنها رائدة، على الشركة في نيسان/ أبريل مقابل مبلغ لم يتم الكشف عنه.

للاطلاع إلى النص الأصلي (هنا)



المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة سياسة عربية مقابلات سياسة دولية سياسة دولية الذكاء الاصطناعي الولايات المتحدة النووي الولايات المتحدة النووي الذكاء الاصطناعي المزيد في سياسة سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة دولية سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة شرکات الذکاء الاصطناعی مسببات الأمراض الحمض النووی البیت الأبیض علم الأحیاء إدارة بایدن أوبن إیه آی الموقع أن التی یمکن من خلال یمکن أن تی یمکن لم یکن

إقرأ أيضاً:

هل روبوتات الذكاء الاصطناعي مجرّد ضجيج أم أمل حقيقي؟

ترجمة: بدر بن خميـس الظفري

طالما حلم الإنسان بأن تتولّى الآلات عنه الأعمال الشاقّة، وأن تساعده في المهام الذهنية كذلك. وعلى مدى القرون، ازداد اعتماد البشر على الآلات بوتيرة متسارعة، حتى وصلنا اليوم إلى مرحلة باتت فيها الروبوتات تؤدي شتى أنواع المهام اليدوية، وتُظهر مهارات لافتة.

وينطبق الأمر نفسه على الأنشطة الفكرية. فمنذ ظهور برنامج «تشات جي بي تي»، أصبح الجميع يدرك حجم الإمكانات التي يحملها الذكاء الاصطناعي. والمشهد مذهل بالفعل: كيف يمكن لبرامج أن تمتلك هذا القدر من المعرفة، وأن تنتج نصوصا واستنتاجات تبدو منطقية؟ وهل هناك حدّ لما قد تبلغه؟ ولماذا تحتاج هذه الأنظمة إلى موارد هائلة من البيانات والطاقة الحاسوبية؟

لكن لنبدأ من البداية، فمصطلح «الذكاء الاصطناعي» ظهر في خمسينيات القرن الماضي، وصاغه عالم الرياضيات الأمريكي جون مكارثي خلال ورشة عمل كانت مخصّصة للبحث في مستقبل قدرات الحواسيب. وقد قال لاحقا إن المصطلح لم يأت نتيجة تفكير علمي عميق، بل لأنهم أرادوا عنوانا مثيرا يجذب التمويل اللازم للورشة!

ومع ذلك، فإن فكرة الآلة الذكية سبقت ذلك بكثير؛ ففي عام 1939 عرضت شركة «وستنغهاوس» خلال معرض نيويورك العالمي نموذجا بشريّ الشكل يدعى «إلكترو»، قادرا على المشي والكلام والسمع.

وبمعايير اليوم، كان الروبوت بدائيا للغاية، لكنه جسّد مبكرا مفهوم الروبوت الإنساني، وكان يرافقه جهاز آخر على شكل كلب يُسمى «سباركو». وفي عام 1941، قدّم المهندس الألماني كونراد تسوزه أوّل حاسوب حديث، ثم طُوّرت أنظمة التحكم بالحركات الكهربائية عبر الحاسوب في أوائل الخمسينيات ودخلت مرحلة الإنتاج. تلك الخطوات كانت الأساس الذي قامت عليه الأنظمة الحالية، وإن كان أحد في ذلك الوقت لا يتخيّل مدى ما ستصل إليه الحواسيب اليوم.

هذه التطورات تطرح سؤالا أساسيا: هل يمكن للآلات أن تضاهي الذكاء البشري، أو حتى تتجاوزه؟ وكيف يمكن تحقيق ذلك؟ أرى أن المسألة تقوم على ثلاثة مستويات.

أولا، درج الذكاء الاصطناعي التقليدي على محاكاة قدرات معرفية بشرية معينة، ولكن ضمن نطاق ضيّق، ومع ذلك، يمكنه إنجاز المهام بسرعة وكفاءة أكبر. من ذلك التفكير الرياضي، ولعب الشطرنج، وقراءة الخرائط للملاحة. اليوم، يُعدّ من المسلّم به أن هذه مهارات بشرية يمكن نقلها إلى الآلات، لكن في عام 1956 كانت أقرب للخيال العلمي.

لقد أصبحت هذه الأحلام واقعا، لكنها لم تعد تُصنّف ضمن «الذكاء الاصطناعي» بالمعنى الشائع. وكما قال مكارثي: «عندما يعمل النظام جيدا، لا يعود أحد يسمّيه ذكاء اصطناعيا». أما الجيل الجديد من الذكاء الاصطناعي، وهو الذكاء الاصطناعي التوليدي، فقد دخل الوعي العام بقوة، ويمتاز بقدرته على إنتاج نصوص وصور وأصوات جديدة استجابة لتعليمات تُكتب بلغة طبيعية.

غير أن تدريب هذا النوع من «الذكاء الاصطناعي غير المجسّد» يعتمد على كميات ضخمة من البيانات المأخوذة من الفضاء الرقمي، ويتطلب قدرة حسابية هائلة. وهذا يعني أنه يرتبط بعالمنا الواقعي بشكل غير مباشر للغاية. ثانيا، يمكن إيجاد بيئة رقمية تحاكي قوانين الفيزياء في العالم الحقيقي بهدف إنتاج بيانات أقرب إلى الواقع لتدريب الأنظمة الذكية. في هذه البيئة، تُحاكي الأشياء الافتراضية خصائص الأشياء المادية بدقة كبيرة. فمثلا، تسقط قطرة الماء وتتحرك كما تتحرك في الطبيعة.

وفي هذا «العالم الافتراضي»، أو ما يُعرف بـ«الميتافرس» (العالم الماورائي الرقمي)، يمكن تدريب أنظمة التعلم الآلي على الاستكشاف والتجربة، وتنمية حسّ الفضول والقدرة على التعامل مع تنوّع المواقف.

غير أن هذا العالم، مهما بلغ تشابهُه مع الواقع، يظل من صنع الإنسان ويُصوّر العالم من منظور الإنسان فقط. وبالتالي، لا يمكن أن نتوقع فيه المفاجآت الحقيقية التي شكّلت مسار حياتنا وأسهمت في تطوّر الذكاء البشري.

في المستوى الثالث، يمكن تجاوز تلك القيود من خلال تمكين الحواسيب من العمل باستقلالية داخل العالم الحقيقي عبر الروبوتات التي تستشعر بيئتها باستخدام المجسّات. وبفضل أدوات الحركة المدمجة فيها ـ مثل الأيدي والأذرع والأرجل ـ تستطيع هذه الروبوتات تغيير بيئتها، ثم ملاحظة النتائج المترتبة على ذلك.

وهكذا تنشأ «حلقة مغلقة» تجمع بين الإدراك، والفهم الذكي، وتنفيذ الأفعال. وبذلك يصبح بإمكان الآلة المزوّدة بنظام ذكاء اصطناعي مدمج أو متصل بها خارجيا أن تخرج إلى العالم «بمفردها»، وأن تتعلم وتطوّر ذكاءها الخاص. ويُطلق على هذا النوع من الذكاء اسم «الذكاء المجسّد»، لأنه مرتبط بجسد، ومصمّم بما يتناسب مع خصائص الروبوت نفسه، من طريقة إدراكه للعالم إلى قدرته على التفاعل معه.

ماذا يمكن أن نتوقع في المستقبل؟ من الواضح أن دمج الذكاء الاصطناعي بالروبوتات ـ وليس بالضرورة الروبوتات الشبيهة بالبشر التي تمتلك سيقانا، بل بمختلف أشكالها ـ هو الطريق الذي سيُسهم في جعل الآلات الذكية قادرة على أداء مهام مفيدة.

فإذا استطاعت هذه الكيانات «المجسّدة» أن تفهم عالمنا الحقيقي مباشرة، وأن تمزج هذا الفهم بما اكتسبته من الفضاء الرقمي، فقد يؤدي ذلك إلى تآزر أو علاقة تكاملية تجعل الإنسان أكثر ذكاء وتفتح أمامه آفاقا أوسع بكثير.

ويتحمل واضعو السياسات والباحثون مسؤولية رئيسية في الاستثمار في هذا النوع من الروبوتات باعتباره جزءا أساسيا من مهمتهم في دعم تطور الإنسان. كما أن الفوائد العملية لاستخدام هذه الآلات في عمليات الإنتاج ستظهر بوضوح في المدى القصير والمتوسط.

إن البلدان التي تمتلك أعلى كثافة من الروبوتات ـ مثل الصين، وكوريا الجنوبية، وسنغافورة، وألمانيا، واليابان ـ تتمتع بأفضلية إنتاجية هائلة. ومن المتوقع أن يتّسع هذا الفارق بدرجة كبيرة مع دخول الوكلاء المجسّدين إلى خط الإنتاج.

أما الدول التي تمتلك قاعدة صناعية واسعة وموارد بيانات كبيرة، وتعرف كيف توفّق بين البرمجيات وأنظمة الحوسبة المدمجة والمجسّات والميكاترونكس والذكاء الاصطناعي، فهي الأكثر قدرة على طرح هذه الآلات في الأسواق.

وليس من قبيل المصادفة أن هذه الدول هي بالفعل في طليعة صناعة الروبوتات.

ومع الإنجازات اللافتة التي تحققها الشركات الناشئة الصينية في مجال الروبوتات الشبيهة بالبشر، ومع الهدف المعلن للصين بأن تصبح رائدة في الذكاء الاصطناعي المجسّد ـ كما ورد في توصيات الخطة الخمسية الصينية الخامسة عشرة (2026-2030) ومبادرة «الذكاء الاصطناعي بلس» ـ فإننا نتوقع إنجازات كبيرة إذا ما نُفّذت هذه الخطط بذكاء.

كما أن المنافسة الدولية تتصاعد، ما يجعل السنوات المقبلة حبلى بابتكارات لافتة في هذا المجال. وأنا شخصيا لا أطيق الانتظار لرؤية ما سيظهر.

مقالات مشابهة

  • غنائم الانسحاب.. وثائقي للجزيرة يكشف حجم الأسلحة الأميركية التي استولت عليها طالبان
  • بطاقة ترامب الذهبية تفتح أبواب أمريكا للأثرياء والكفاءات.. كيف تحصل عليها ؟
  • سايمون شيمانسكي رئيس قسم النمو في شركة إكس تي بي العالمية: الذكاء الاصطناعي شريك ومساعد في الرحلة المالية وعملية الاستثمار
  • أمريكا تشدد العقوبات على فنزويلا وتستهدف مادورو وأقربائه وشركات النفط
  • تحذير من ضعف دقة الذكاء الاصطناعي لقياس النبض عند ارتفاعه
  • النفط يواصل الارتفاع بعد احتجاز أمريكا ناقلة بترول قبالة فنزويلا
  • علاقتها بإيران وحزب الله.. سبب احتجاز أمريكا ناقلة نفط قرب فنزويلا
  • لماذا تحتاج أمريكا إلى الخليج في معركة الذكاء الاصطناعي مع الصين؟
  • هل روبوتات الذكاء الاصطناعي مجرّد ضجيج أم أمل حقيقي؟
  • شويغو: روسيا تنتظر رد أمريكا على مقترحات بوتين بشأن معاهدة الأسلحة الهجومية الاستراتيجية