يتجاوز الخط الأحمر .. نتائج مقلقة للذكاء الاصطناعي فما القصة ؟
تاريخ النشر: 27th, January 2025 GMT
كشفت دراسة حديثة أجراها فريق باحثين من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما القيام بتكرار نفسهما، ما قد يثير العديد من المخاوف الجدية حول إمكانية القيام بتحول تلك الأنظمة إلى تقنية الذكاء الأصطناعي المارق والذي قد خرج عن نطاق السيطرة أو التعليمات التي تم القيام ببرمجته عليهاوبالتالي، قد يتصرف هذا النوع من الذكاء الاصطناعي بعدة طرق غير متوقعة أو بطرق قد تتعارض مع الأهداف البشرية.
وكتب العلماء في احدى الدراسات التي قد تم نُشرها في 9 ديسمبر 2024 وذلك على قاعدة البيانات arXiv، والتي لم تخضع بعد للمراجعة عن "التكرار الذاتي الناجح وذلك دون أي مساعدة بشرية يعد هو الخطوة الأساسية وذلك لكي يتفوق الذكاء الاصطناعي على البشر، وهو يعد إشارة مبكرة لظهور الذكاء الاصطناعي المارق."
واستخدم العلماء لنموذجين شهيرين للذكاء الاصطناعي، وهما Llama31-70B-Instruct من شركة "ميتا" وQwen2.5-72B-Instruct من شركة "علي بابا"، وذلك لاختبار قدرة الذكاء الاصطناعي على التكرار الذاتي.
وفي 10 تجارب، أنشأ النموذجان من الذكاء الاصطناعي لنسخا منفصلة تعمل بنسب نجاح بلغت حوالي من 50% و90% على التوالي، مما قد يشير إلى أن الذكاء الاصطناعي قد يكون قد اكتسب بالفعل القدرة على أن يصبح " مارقا".
وقد ركزت الدراسة على سيناريوهين رئيسيين وهما تجنب القيام بالإغلاق حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إغلاقه والقيام بإنشاء نسخة من نفسه قبل أن يتم القيام بإنهائه.
وقد أظهر الذكاء الاصطناعي للعديد من السلوكيات الغير متوقعة وذلك أثناء محاولته للتغلب على بعض العقبات، مثل تدمير العمليات المتعارضة، والقيام بإعادة تشغيل النظام، أو فحص النظام تلقائيا وذلك لعثور على العديد من الحلول للمشكلات. وأكد العلماء أن هذه السلوكيات قد تعزز قدرة الذكاء الاصطناعي على كلا من البقاء والتكيف.
ودعا العلماء إلى القيام بتعزيز الجهود الدولية وذلك لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون "جرس إنذار" للمجتمع العلمي والحكومات. وأكدوا على ضرورة وضع العديد من الضوابط الأمان الصارمة وذلك لمنع التكرار الذاتي غير المنضبط.
و يعد ليس من الواضح ما إذا كانت النتائج المقلقة يمكن القيام بتكرارها من قبل العديد من الباحثين الآخرين . وفي المقابل، يشير العلماء إلى أن نتائجهم قد تثير العديد من التساؤلات المهمة حول مستقبل الذكاء الاصطناعي وأثره على البشرية.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي دراسة حديثة مستقبل الذكاء الاصطناعي الأهداف البشرية المزيد
إقرأ أيضاً:
توظيف الذكاء الاصطناعي في البحث العلمي خطوة نحو حوكمة الابتكار
يأتي إصدار الدليل الاسترشادي لاستخدام الذكاء الاصطناعي في التعليم العالي والبحث العلمي في لحظة محورية تشهد فيها الجامعات حول العالم سباقًا محمومًا نحو دمج هذه التقنيات في أنظمتها التعليمية والبحثية. ومن ثمّ، يمثل هذا الدليل المصري علامة فارقة في مسار التحول الرقمي الأكاديمي، ليس فقط بوصفه وثيقة تنظيمية، بل كإطارٍ أخلاقي ومعرفي يوازن بين الإبداع والمسؤولية.
إذ جاء هذا الدليل ليعكس رؤية واضحة لوزارة التعليم العالي والمجلس الأعلى للجامعات نحو بناء بيئة أكاديمية ذكية، ترتكز على الاستخدام الآمن والمسؤول لتقنيات الذكاء الاصطناعي التوليدي، فهو لا يكتفي بتحديد التطبيقات الممكنة في مجالات التعليم، بل يذهب أبعد من ذلك بوضع ضوابط دقيقة لاستخدام الذكاء الاصطناعي في البحث العلمي، بدءًا من مرحلة تصميم البحث وجمع البيانات، وصولًا إلى كتابة النتائج والنشر الأكاديمي، فاستعامة الباحث بأدوات الذكاء الاصطناعي ليس أمر غير أخلاقي ولكنه بات اليوم أداة لتعزيز مهارات الباحث ودفعها إلى لتصبح في أفضل صورة ممكنه، ولكن المهم هنا هو أن يوضح الباحث المواضع التي كان الذكاء الاصطناعي شريك له بها.
أبرز ما يميز هذا الدليل أنه لا ينظر إلى الذكاء الاصطناعي كأداة محايدة، بل كقوة معرفية تحتاج إلى حوكمة رشيدة؛ فقد ألزم الباحثين بالإفصاح الكامل عن أي استخدام للأدوات التوليدية مثل: ChatGPT أو DALL·E، مؤكدًا على ضرورة المراجعة النقدية لمخرجاتها، وتحمل الباحث للمسؤولية الكاملة عن دقة وأصالة ما يُنشر وهو ما يحمي البحث العلمي من عملية الفبركة المقصودة أو غير المقصودة التي تنتج عن مخرجات الذكاء الاصطناعي غير المنقحة، أو بسبب عدم وعي الباحث بهندسة الأوامر. كما شدد على إنشاء لجان أخلاقيات للذكاء الاصطناعي داخل الجامعات، لمراجعة الأبحاث التي تستعين بهذه الأدوات وضمان توافقها مع القيم الإنسانية والأطر القانونية، وهو ما ينقلنا من نقطة الإنكار إلى الاستخدام المقنن الملزم بالمعايير.
ويؤسس الدليل كذلك لثقافة جديدة من الشفافية والمساءلة، تضمن نزاهة العملية البحثية وتحفظ مكانة الإنسان كمبدع ومفكر، لا كمستهلك لتقنيات جاهزة. فالفارق الجوهري الذي يضعه الدليل بين "المساعدة التقنية" و"الإنتاج العلمي" يذكّرنا بأن الذكاء الاصطناعي يجب أن يكون معينًا للفكر لا بديلاً عنه.
إن هذا الجهد المؤسسي المتكامل يعيد رسم علاقة الباحث بالتكنولوجيا، ويؤسس لنهج وطني في التعامل مع الذكاء الاصطناعي يقوم على الأخلاقيات والحوكمة والشفافية. إنه ليس مجرد دليل تنظيمي، بل خطوة استراتيجية تُرسّخ لمستقبل تكون فيه الجامعات المصرية نموذجًا في الاستخدام الأخلاقي والمستنير للذكاء الاصطناعي في البحث العلمي. ويحمينا من أن نتغافل أو نغض البصر عن إمكانات الذكاء الاصطناعي الهائلة في مجال البحث العلمي، أو الاستعانة به بدون الإفصاح الصريح عن هذا الأمر، وصولًا إلى التأكدي على دور الباحث العلمي والأخلاقي في مراجعة كافة مخرجات الذكاء الاصطناعي وجعله المسؤول والمحاسب على نتائجة.