800 شخصية عالمية تطالب بحظر تطوير الذكاء الخارق قبل فوات الأوان
تاريخ النشر: 23rd, October 2025 GMT
في خطوة تعكس تصاعد القلق العالمي من تسارع سباق الذكاء الاصطناعي، وقّع أكثر من 800 من الشخصيات العامة والعلماء وقادة التكنولوجيا والعسكريين السابقين على بيان رسمي يطالب بفرض حظر فوري على تطوير ما يُعرف بـ"الذكاء الخارق"، إلى أن يتم التأكد علميًا وشعبيًا من إمكانية ضبطه وضمان سلامة استخدامه.
بحسب تقرير نشرته صحيفة فاينانشال تايمز، فإن من بين الموقعين مؤسس شركة آبل ستيف وزنياك، والأمير هاري، والعالم الحائز على جائزة نوبل جيفري هينتون، إلى جانب مسؤولين عسكريين ومديرين تنفيذيين من مختلف أنحاء العالم.
وجاء البيان الصادر عن معهد "مستقبل الحياة" ليؤكد أن تطورات الذكاء الاصطناعي تسير بسرعة تفوق قدرة المجتمعات على التعامل معها، مطالبًا بإيقافها مؤقتًا لحين وضع معايير أمان صارمة.
وجاء في نص البيان: "ندعو إلى حظر تطوير الذكاء الخارق، على ألا يُرفع هذا الحظر إلا بعد التوصل إلى إجماع علمي واسع على أن تطويره سيتم بأمان وتحت رقابة صارمة، مع وجود تأييد شعبي لذلك".
التحذير الجديد يأتي في وقت تتسابق فيه كبرى الشركات التقنية مثل جوجل وأوبن إيه آي وميتا للوصول إلى ما يُعرف بـ"العقل الاصطناعي الكامل"، وهو الجيل الذي سيتجاوز قدرات الإنسان في التفكير والإبداع.
ويقول المدير التنفيذي لمعهد مستقبل الحياة، أنتوني أغيري، في تصريحات لشبكة NBC الأمريكية: "لقد اختارت شركات الذكاء الاصطناعي هذا الطريق مدفوعة بالمكاسب الاقتصادية، لكن لم يسأل أحد البشر إن كانوا يريدون فعلاً المضي فيه".
ويُعرّف الذكاء الاصطناعي العام (AGI) بأنه قدرة الآلات على التفكير بمستوى الإنسان، أما الذكاء الخارق فهو المرحلة التالية، حيث تتفوق الأنظمة على البشر في جميع المجالات، بما في ذلك اتخاذ القرارات والإبداع. هذه القدرة، رغم أنها لم تتحقق بعد، تثير مخاوف من أن تؤدي إلى فقدان السيطرة على أنظمة متطورة قد تتصرف باستقلالية عن البشر.
وحذّر الموقعون على البيان من أن إطلاق ذكاء خارق دون ضوابط قد يؤدي إلى عواقب كارثية، تشمل فقدان السيطرة على القرارات العسكرية والاقتصادية والسياسية، وتهديد الأمن العالمي. ويعتبر العديد من الخبراء هذا السيناريو خطرًا وجوديًا على البشرية، إذا لم يتم وضع قيود واضحة على التطوير والاستخدام.
ورغم أن الذكاء الاصطناعي الحالي لا يزال بعيدًا عن تلك المرحلة، فإن شركات التكنولوجيا تضخ مليارات الدولارات في تطوير نماذج لغوية وشبكات حوسبة عملاقة تمهيدًا للوصول إليها.
وقد صرح مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، بأن "الذكاء الفائق أصبح أقرب مما نعتقد"، بينما يرى إيلون ماسك أن "الذكاء الخارق يحدث بالفعل الآن"، محذرًا من مخاطره المحتملة. أما سام ألتمان، رئيس أوبن إيه آي، فقد توقع أن يظهر الذكاء الفائق بحلول عام 2030.
المثير أن هؤلاء القادة أنفسهم لم يوقعوا على البيان، ما أثار انتقادات واسعة بشأن التناقض بين تحذيراتهم وممارسات شركاتهم.
ويأتي هذا التحرك بعد شهر واحد فقط من بيان آخر وقعه أكثر من 200 باحث ومسؤول حكومي من 10 حائزين على نوبل، حذروا فيه من المخاطر الراهنة للذكاء الاصطناعي مثل البطالة الجماعية، وتضليل المعلومات، وانتهاكات الخصوصية. لكن بيان معهد مستقبل الحياة يذهب أبعد من ذلك، إذ يحذر من "نقطة اللاعودة" في تطور الذكاء الاصطناعي، عندما تتجاوز الأنظمة حدود السيطرة البشرية.
ويرى مراقبون أن العالم يعيش اليوم سباق تسلح تكنولوجيًا جديدًا، حيث تتنافس الدول والشركات على امتلاك أقوى العقول الاصطناعية دون التفكير الكافي في العواقب. وبينما يرى البعض أن الذكاء الخارق قد يكون الحل لأعقد مشكلات البشرية مثل الفقر والأمراض، يخشى آخرون أن يكون هو الخطر الأكبر على الوجود الإنساني ذاته.
ويعكس البيان الأخير قلقًا عالميًا متزايدًا من مستقبل الذكاء الاصطناعي، ودعوة متزايدة لإنشاء نظام رقابة دولي يُنظم تطويره ويمنع تحوله من نعمة إلى نقمة.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی الذکاء الخارق
إقرأ أيضاً: