الذكاء الاصطناعي يكشف ثغرات شيفرة البرامج ويصلحها
تاريخ النشر: 6th, October 2025 GMT
نشرت "جوجل ديب مايند"، وكيل ذكاء اصطناعي جديدا مُصمما لاكتشاف الثغرات الأمنية الحرجة في شيفرة البرامج وإصلاحها بشكل مستقل. وقد ساهم النظام، الذي يحمل اسم CodeMender، في 72 إصلاحًا أمنيًا لمشاريع مفتوحة المصدر قائمة خلال الأشهر الستة الماضية.
تحديد الثغرات الأمنية وتصحيحها عملية بالغة الصعوبة وتستغرق وقتًا طويلاً، حتى مع استخدام الطرق الآلية التقليدية.
صُمم CodeMender لمعالجة هذا الخلل. فهو يعمل كوكيل ذكاء اصطناعي مستقل يتبع نهجًا شاملًا لإصلاح أمان الشيفرة. يتميز CodeMender بقدرته على الاستجابة الفورية، مما يسمح له بإصلاح الثغرات الأمنية المكتشفة حديثًا، وبقدرته الاستباقية على إعادة كتابة الشيفرة البرمجية الحالية لإزالة فئات كاملة من الثغرات الأمنية قبل استغلالها. يتيح هذا للمطورين ومسؤولي صيانة المشاريع تخصيص المزيد من وقتهم لبناء الميزات وتحسين وظائف البرنامج.
يعمل النظام بالاستفادة من قدرات التفكير المتقدمة لنماذج Gemini Deep Think الحديثة من جوجل. يتيح هذا الأساس للوكيل تصحيح أخطاء وحل مشكلات الأمان المعقدة بدرجة عالية من الاستقلالية. ولتحقيق ذلك، زُوّد النظام بمجموعة من الأدوات التي تسمح له بتحليل الشيفرة البرمجية والتفكير فيها قبل تطبيق أي تغييرات. يتضمن CodeMender أيضًا عملية تحقق لضمان صحة أي تعديلات وعدم تسببها في مشاكل جديدة.
في حين تتطور نماذج اللغات الكبيرة بسرعة، فإن أي خطأ في أمان الشيفرة البرمجية قد يكون له عواقب وخيمة. لذلك، يُعد إطار عمل التحقق التلقائي من CodeMender ضروريًا. يتحقق النظام بشكل منهجي من أن أي تغييرات مقترحة تُعالج السبب الجذري للمشكلة، وأنها صحيحة وظيفيًا، ولا تُعيق الاختبارات الحالية، وتلتزم بإرشادات أسلوب الترميز الخاصة بالمشروع.
اقرأ أيضا... الذكاء الاصطناعي يُجري تجارب لاكتشاف مواد جديدة
لتحسين فعالية إصلاح الكود، طوّر فريق ديب مايند (DeepMind) تقنيات جديدة لوكيل الذكاء الاصطناعي. يستخدم CodeMender تحليلًا متقدمًا للبرامج، مستخدمًا مجموعة من الأدوات تُمكّنه من التدقيق المنهجي في أنماط الكود، وتدفق التحكم، وتدفق البيانات لتحديد الأسباب الجذرية للعيوب الأمنية ونقاط الضعف الهيكلية.
يستخدم النظام أيضًا بنية متعددة الوكلاء، حيث يتم نشر وكلاء متخصصين لمعالجة جوانب مُحددة من المشكلة.
في أحد الأمثلة العملية، عالج CodeMender ثغرة أمنية حيث أشار تقرير أعطال إلى تجاوز سعة المخزن المؤقت.
إلى جانب الاستجابة للأخطاء الموجودة، صُمم CodeMender لحماية البرامج بشكل استباقي من التهديدات المستقبلية.
يتضمن الإصلاح الاستباقي للكود بواسطة وكيل الذكاء الاصطناعي عملية اتخاذ قرارات معقدة. عند تطبيق التعليقات التوضيحية، يُمكن للوكيل تلقائيًا تصحيح أخطاء التجميع الجديدة وإخفاقات الاختبار الناتجة عن تغييراته الخاصة. إذا اكتشفت أدوات التحقق الخاصة به أن أحد التعديلات قد أدى إلى تعطل الوظيفة، يُصحح الوكيل نفسه بناءً على التعليقات التوضيحية ويحاول إيجاد حل مختلف.
على الرغم من هذه النتائج الأولية الواعدة، يتبنى فريق "جوجل ديب مايند" نهجًا حذرًا ومدروسًا في النشر، مع تركيز كبير على الموثوقية. يُراجع باحثون بشريون، حاليا، كل تصحيح يُنتجه الوكيل CodeMender قبل إرساله إلى مشروع مفتوح المصدر. ويعمل الفريق على زيادة عدد التحديثات المُقدمة تدريجيًا لضمان الجودة العالية ولدمج ملاحظات مجتمع البرمجيات مفتوحة المصدر بشكل منهجي.
من المقرر أن يتواصل الباحثون مع القائمين على مشاريع البرمجيات مفتوحة المصدر المهمة عبر التحديثات التي يُنتجها CodeMender. ومن خلال الاستفادة من ملاحظات المجتمع، يأملون في إصدار CodeMender في نهاية المطاف كأداة متاحة للجميع.
كما يعتزم فريق "ديب مايند" نشر أوراق بحثية وتقارير تقنية في الأشهر المقبلة لمشاركة تقنياتهم ونتائجهم. ويمثل هذا العمل الخطوات الأولى في استكشاف إمكانات وكلاء الذكاء الاصطناعي في إصلاح الأكواد البرمجية بشكل استباقي وتعزيز أمان البرمجيات بشكل جذري للجميع. أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: ثغرة أمنية الشيفرة الذكاء الاصطناعي الذکاء الاصطناعی الثغرات الأمنیة الاصطناعی ی دیب مایند
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.