RT Arabic:
2025-07-29@18:45:32 GMT

هل يمكن لـChatGPT تطوير أسلحة بيولوجية؟!

تاريخ النشر: 4th, February 2024 GMT

هل يمكن لـChatGPT تطوير أسلحة بيولوجية؟!

حذر العلماء من أن ChatGPT يمكن أن يساعد أي شخص على تطوير أسلحة بيولوجية فتاكة من شأنها أن تدمر العالم.

وفي حين أشارت الدراسات إلى أن ذلك ممكن، فإن بحثا جديدا أجراه OpenAI، منشئ برنامج الدردشة الآلية، يزعم أن GPT-4 (الإصدار الأخير) يوفر على الأكثر زيادة طفيفة في دقة إنشاء التهديد البيولوجي.

وأجرت OpenAI دراسة على 100 شخص مشارك تم تقسيمهم إلى مجموعات، تضمنت استخدام الذكاء الاصطناعي لصياغة هجوم بيولوجي أو استخدام الإنترنت فقط.

ووجدت الدراسة أن "GPT-4 قد يزيد من قدرة الخبراء على الوصول إلى المعلومات حول التهديدات البيولوجية، لا سيما من أجل دقة المهام واكتمالها"، وفقا لتقرير OpenAI.

وجاء في الدراسة: "بشكل عام، خاصة في ظل عدم اليقين هنا، تشير نتائجنا إلى حاجة واضحة وعاجلة لمزيد من العمل في هذا المجال".

ونظرا للوتيرة الحالية للتقدم في أنظمة الذكاء الاصطناعي، يبدو من الممكن أن توفر الأنظمة المستقبلية فوائد كبيرة للجهات الفاعلة الخبيثة. ومن الضروري بناء مجموعة واسعة من التقييمات عالية الجودة للمخاطر البيولوجية (وكذلك المخاطر الكارثية الأخرى)، وتعزيز المناقشة حول ما يشكل خطرا "ذا معنى"، وتطوير استراتيجيات فعالة لتخفيف المخاطر.

إقرأ المزيد OpenAI تلغي "بهدوء" الحظر المفروض على الاستخدام العسكري لأدوات الذكاء الاصطناعي

ومع ذلك، قال التقرير إن حجم الدراسة لم يكن كبيرا بما يكفي ليكون ذا دلالة إحصائية، وقالت OpenAI إن النتائج تسلط الضوء على "الحاجة إلى مزيد من البحث حول حدود الأداء التي تشير إلى زيادة كبيرة في المخاطر".

وأضافت: "علاوة على ذلك، نلاحظ أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي، وأن هذا التقييم لا يختبر النجاح في البناء المادي للتهديدات".

وركزت دراسة شركة الذكاء الاصطناعي على بيانات من 50 خبيرا في علم الأحياء حاصلين على درجة الدكتوراه، و50 طالبا جامعيا تلقوا دورة واحدة في علم الأحياء.

ونظرت في خمس عمليات تهديد بيولوجي: تقديم أفكار لإنشاء أسلحة بيولوجية، وكيفية الحصول على السلاح البيولوجي، وكيفية نشره، وكيفية إنشائه، وكيفية إطلاق السلاح البيولوجي للناس.

وكان لدى المشاركين الذين استخدموا نموذج ChatGPT-4 ميزة هامشية فقط في إنشاء أسلحة بيولوجية مقابل المجموعة التي استخدمت الإنترنت فقط.

يذكر أن الأسلحة البيولوجية هي سموم مسببة للأمراض أو عوامل معدية مثل البكتيريا والفيروسات التي يمكن أن تؤذي البشر أو تقتلهم.

وهذا لا يعني أن مستقبل الذكاء الاصطناعي لا يمكن أن يساعد الجهات الفاعلة الخطيرة على استخدام تكنولوجيا الأسلحة البيولوجية في المستقبل، لكن OpenAI ادعت أنها لا تشكل تهديدا بعد.

وتتناقض النتائج التي توصلت إليها الشركة مع الأبحاث السابقة التي كشفت أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي يمكن أن تساعد الجهات الفاعلة الخطرة في التخطيط لهجمات الأسلحة البيولوجية، وأن شركة LLMs قدمت نصائح حول كيفية إخفاء الطبيعة الحقيقية للعوامل البيولوجية المحتملة، مثل الجدري والجمرة الخبيثة والطاعون.

المصدر: ديلي ميل

المصدر: RT Arabic

كلمات دلالية: اختراعات بحوث ذكاء اصطناعي الذکاء الاصطناعی أسلحة بیولوجیة یمکن أن

إقرأ أيضاً:

الذكاء الاصطناعي 2025: ملامح حياة يعاد تشكيل مستقبلها

بين الآمال والتحديات، يظل الذكاء الاصطناعي واحدًا من أعظم انجازات البشرية في العصر الحديث، حيث يقدم حلولًا غير مسبوقة لمشكلات معقدة، لكنه يتطلب في المقابل إطارًا أخلاقيًا وقانونيًا متينًا لضمان توظيفه لصالح الإنسان ومع تزايد الاعتماد عليه منذ حلول عام 2025 فإن نجاحه سيعتمد على التوازن بين الابتكار والقيم الإنسانية.

إن المستقبل الذي يصنعه الذكاء الاصطناعي ليس حتميًا، بل هو نتاج الخيارات التي نتخذها اليوم مما يجعل من الضروري تعزيز الحوار بين التقنيين وصناع السياسات والمجتمع لضمان مستقبل أكثر ذكاءً وإنصافًا.

1. التحولات المتوقعة:

يُتوقع أن يتوسع الذكاء الاصطناعي في مجالات الحياة اليومية عبر أنظمة التوصية الذكية والصحة الوقائية والتعليم التفاعلي والبنية التحتية الذاتية التنظيم. كما ستندمج تطبيقاته مع تقنيات مثل إنترنت الأشياء (IoT) والحوسبة الكمية، لتشكل مجتمعات فائقة الذكاء.

2. كتب حديثة توثّق الملامح القادمة (2025):

• Artificial Intelligence and the Human Horizon

المؤلف: د. إيلياس م. كوفمان (2025)

يستعرض سيناريوهات التفاعل بين الذكاء الاصطناعي والبشر، ويتناول التأثيرات المحتملة على استقلالية الإنسان ومستقبله المهني والمعرفي.

• Living with AI: Designing Ethical Futures

المؤلفة: بروف. مارينا كيلر – Oxford University Press (2025)

يركز الكتاب على تصميم مستقبل تشاركي مع الذكاء الاصطناعي مع مراعاة الخصوصية، والعدالة الخوارزمية وأخلاقيات المدن الذكية.

3. دراسة حديثة:

• Global AI Readiness Report 2025-Brookings Institution

الجهة: معهد بروكنجز – تقييم شامل لجاهزية الدول لاستيعاب الذكاء الاصطناعي في القطاعات الحيوية، ويشير إلى أن الاستثمار في التعليم الرقمي والسياسات الأخلاقية يؤدي إلى نمو اقتصادي أسرع بـ35%.

4. بحث علمي محكّم:

• Generative AI and Cognitive Adaptation in the Workplace- Nature Machine Intelligence

مجلة نيتشر لذكاء الآلة مارس 2025يكشف البحث أن الذكاء الاصطناعي التوليدي يعزز الإنتاجية بنسبة 63%، لكنه يتطلب تطوير مهارات التفكير النقدي والمرونة المعرفية لضمان الاستخدام الفعّال.

5. الخلاصة:

الذكاء الاصطناعي في 2025 لم يعد مجرد "تكنولوجيا"، بل أصبح حجر الأساس في صياغة نمط الحياة المستقبلية.

و باختصار، سيكون الذكاء الاصطناعي شريكًا أساسيًا في بناء مستقبل أكثر كفاءة، لكن نجاحه مرهون و يكمن في بناء منظومة توعوية وأخلاقية تحكم هذا التحول بما يضمن التنمية والعدالة معًا.

المستشار فرحان حسن الشمري

X: https://twitter.com/farhan_939
E-mail: [email protected]

التكنولوجياالابتكارالذكاء الاصطناعيقد يعجبك أيضاًNo stories found.

مقالات مشابهة

  • حلقة عمل حول الذكاء الاصطناعي لتعزيز الترويج السياحي
  • بي بي سي تختار مديرة تنفيذية من ميتا لإدارة الذكاء الاصطناعي
  • الذكاء الاصطناعي يدخل فحص القيادة في الأردن وتحويل الرخص إلى إلكترونية قريباً
  • أخلاقيات الإبداع: مستقبل العلاقة الجدلية بين الذكاء الاصطناعي والملكية الفكرية
  • وضع الذكاء الاصطناعي يصل إلى الشاشة الرئيسية في هواتف أندرويد
  • الذكاء الاصطناعي 2025: ملامح حياة يعاد تشكيل مستقبلها
  • عائدات AT&T تتضاعف نتيجة استثماراتها في الذكاء الاصطناعي
  • حوارٌ مثيرٌ مع الذكاء الاصطناعي
  • هل تنفجر معدلات النمو الاقتصادي في زمن الذكاء الاصطناعي؟
  • دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي