خوارزمية الذكاء الاصطناعي المتمردة
تاريخ النشر: 10th, February 2024 GMT
أُذيعَ خبرٌ عبر وسائل الإعلام العالمية -مع بداية عام 2024م- عن حادثة -ليست بجديدةٍ- تتعلق بخوارزميات الذكاء الاصطناعي وسلوكها العجيب مفاده أن نظام دردشة آلي «Chatbot» يعمل بواسطة الذكاء الاصطناعي -تستعمله إحدى كبرى شركات التوصيل في التحاور مع زبائنها والرد على استفساراتهم- خرج عن أطر الوظيفة المنوطة إليه وخالف أعراف التسويق وقواعدها الدبلوماسية؛ فهمّ بشتم زبائن الشركة وأضاف مع شتائمه وألفاظه غير اللائقة انتقاده للشركة المُشغِّلة له عبر إظهاره لمساوئها والتوصية باستبدالها بشركات منافسة أخرى؛ مما استدعى تدخّل الشركة لإيقاف هذا النظام الذكي المتمرّد، وهذا يشبه -إلى حد ما- حادثة حصلت مع شركة «مايكروسوفت» عام 2016م التي اضطرت أيضا إلى تعطيل روبوت دردشة -يعمل بالذكاء الاصطناعي- خاص بها يُعرف بـ«تاي Tay» -بعد مرور 24 ساعة من إطلاقه- يعمل في منصة «تويتر» -حاليا منصة إكس- بعد تمرده وخروجه عن السيطرة واستعماله لألفاظ غير لائقة مع العامّة الذين يحاورونه في منصة التواصل الاجتماعي.
تتوارد إلى أسماعنا ومشاهدنا مثل هذه التصرفات التي تصدر من أنظمة الدردشة الذكية وخوارزميات الذكاء الاصطناعي بشكل عام؛ إذ إن مثل هذا التمرّد الذي تنهجه الخوارزمية الذكية أمر متوقع لأسباب تقنية وخوارزمية متنوعة؛ حيث يُتحكم بسلوك أنظمة الذكاء الاصطناعي بواسطة البيانات التي دُرّبت عليها، والخوارزميات التي تعمل بها، والقيود أو الإرشادات التي يضعها مطوروها، وعندما تبدأ خوارزمية الذكاء الاصطناعي مثل تلك التي تعمل في أنظمة الدردشة في إظهار سلوك غير مرغوب فيه مثل استعمال لغة غير لائقة أو تصرّف عنصري؛ فيمكن أن تُفسَّر مثل هذه الظواهر بناء على عدة عوامل منها وجود مشكلات في بيانات التدريب؛ حيث تتدرب خوارزميات الذكاء الاصطناعي -في كثير من حالاتها- على مجموعات بيانات كبيرة تحتوي على تفاعلات لغوية بين البشر، ومن الطبيعي أن تتضمن هذه التفاعلات اللغوية على محتوى لغوي غير لائق أو سلبي الذي سيتحول -بعد ذلك- إلى بيانات تتدرب عليها الخوارزمية، وحينها من المتوقع أن تتعلم الخوارزمية محاكاة هذه البيانات «اللغوية» بجيّدها وسيئها، ومع مشكلة عدم الانتقاء الجيد والمتنوع للبيانات فإن نموذج الذكاء الاصطناعي سيكون في فضاء مفتوح من البيانات التي تفضي به إلى الخروج عن النمط اللائق.
كذلك عامل التحيّز الخوارزمي؛ إذ يمكن للخوارزميات الذكية أن تطور تحيزات استنادًا إلى البيانات التي تدربت عليها، وهذه التحيزات يمكن أن تؤدّي إلى سلوك غير محمود بما في ذلك إنتاج استجابات لا تتناسب مع الاستعمال المرغوب للنموذج الذكي، ويمكن أن يكون التحيّز الخوارزمي تحديًا لأنه في كثير من الأحيان يعكس أنماطًا معقدة ودقيقة في بيانات التدريب. أحد العوامل الأخرى أيضا ما يتعلق بنقص الفهم السياقي، وتظهر هذه المشكلة -غالبا- مع نماذج الذكاء الاصطناعي التوليدية المرتبطة بأنظمة المحولات GPT (Generative Pre-trained Transformer)؛ حيث إنها توّلد مخرجاتها نتيجةً للأنماط التي تعلمتها من البيانات، ومع ذلك، فإنها من الممكن أن لا تفهم السياق -بشكل واضح- أو خفايا لغة البشر المرتبطة بالأعراف الاجتماعية والثقافية، ويمكن لهذا النقص في الفهم العميق للغة أن يقود الخوارزمية إلى تفاعلات لغوية غير مناسبة في بعض الحالات.
كذلك من العوامل التي تسهم في صناعة تمرّد الخوارزمية ما يمكن أن نطلق عليه الهجمات المعادية عبر التفاعلات الاستفهامية المُشتِّتَة للنموذج الذكي؛ فيقوم بعض المستخدمين بشكل متعمد أو غير متعمد بتقديم مدخلات للنموذج الذكي في شكل استفهامات تستغل نقاط الضعف في نموذج الذكاء الاصطناعي؛ مما يقود الخوارزمية إلى سلوك لغوي لا يتوافق مع السياق المطلوب ويقوّض من قدراته الحوارية ويضعفها، وهذا ما يسهم في تدرب النموذج الذكي على أساليب حوارية جديدة -غير مجدية- تستند إلى التفاعلات الاستفهامية غير الواضحة أو غير المرغوبة؛ فتتم وضع الخوارزمية بعد فترة من التدرب على مثل هذه الأنماط اللغوية.
من حيث المبدأ الرياضي لآلية عمل خوارزمية الذكاء الاصطناعي، تعتمد النماذج الذكية على آلية توليد النصوص اعتمادا على مبدأ الاحتمالات الرياضي في توزيع الكلمات المناسبة لتشكيل النص المناسب؛ فمثلا، تستعمل النماذج التوليدية أنظمة الانتباه الذاتي «Self attention» -الذي سبق شرحه في مقال سابق نُشر في جريدة «عُمان»- لوزن الكلمات المختلفة حسب الأهمية والأولوية وتوليد مخرجات نصية مرجّحة إحصائيا بناءً على بيانات التدريب؛ فيختار النموذج كل كلمة في استجابته وفقا إلى الاحتمال الشَّرطِي لتلك الكلمة نظرًا للكلمات السابقة والسؤال المُدخل عبر التفاعلات الاستفهامية، وتُعرف هذه العملية بالعملية التنبؤية التي يصعب التحكم بمخرجاتها حتى في حالة القدرة على التحكم بالمدخلات، وهذا ما يُفسّر تعدد التحديات في مواجهة جماح الخوارزمية وتمردها الذي لا يمكن أن يعتمد على عامل واحد مثل التحكم في البيانات وانتقائها بل يتعدى الأمر إلى وجود عوامل أخرى مثل التحكم في عمل الخوارزمية نفسها، وهذا يكون عاملا وتحديا آخر بجانب البيانات والتحكم بها، ويعدّ التعقيد الرياضي للخوارزمية وشبكاتها العميقة تفسيرا لوجود هذا التحدي؛ إذ يتضاعف تعقيد النموذج الرياضي لخوارزميات الذكاء الاصطناعي خصوصا النماذج الأحدث التي تعتمد على خوارزميات التعلّم العميق التي تتطلب شبكات عصبية كثيرة -رقمية- وبيانات كبيرة؛ مما يجعل منها معقدة للغاية؛ فتُوصف في كثير من الأحيان بأنها «صناديق سوداء» لأن عمليات اتخاذ القرارات الخاصة بها ليست قابلة للتفسير بسهولة؛ مما يُصّعب هذا التعقيد قدرات التنبؤ والتحكم في كيفية استجابة النموذج لكل المدخلات؛ فتظهر في النموذج ملامح التمرّد المنبوذة عبر بعض مخرجاتها غير المرغوبة مثل تلك التي سقناها في بداية المقال.
عندما يفقد الذكاء الاصطناعي «السيطرة» فإن ذلك يكون نتيجة لتوليد النموذج لمخرجات عالية الاحتمال إلا أن تلك المخرجات في حالات ما تكون غير مناسبة أو غير متوقعة بسبب من الأسباب المذكورة آنفا، وثمّة إجراءات يمكن العمل عليها لمعالجة مثل هذه المشكلات المتعاقبة بتمرّد الخوارزمية منها تطوير آلية تنظيف البيانات عبر الانتقاء الآلي المشروط للنصوص، وتقليل التحيّز، وتحسين التعامل مع السياق، وتصميم تفاعل آمن لمنع الهجمات المعادية التي تعمل على التفاعلات الاستفهامية المُغرِضة، وتفعيل المراقبة المستمرة للخوارزمية، وهذا يمكن أن يكون جزءا من العناصر الرقمية التي تعمل عليها الخوارزمية وفقا لجزئيات رياضية يُدخلها المبرمجون أثناء بناء نموذج الخوارزمية وتحديد ماهيتها وقواعد عملها، ويمكن ملاحظة وجود مثل هذه التحسينات المتعلقة بسلوك الخوارزميات الذكية وآلية التحكم بها في كثير من النماذج التوليدية المستحدثة مثل «شات جي بي تي 4» التي تعتبر أكثر انضباطا من حيث استعمالها للنصوص والصور نظرا لوجود آلية رقمية مسبقة منظِّمة لسلوك النموذج تحدد له الأطر الأخلاقية العامة. بشكل عام تعدّ مثل هذه الحوادث التي تدخل في نطاق التحيّز والعنصرية والتمرّد تنبيهات أوليّة تصدر من خوارزميات في مراحل ذكائها البدائية -الجيل التطبيقي الأول للذكاء الاصطناعي- لتوجّه الإنسان إلى ضبط الجاهزية الرقمية وأنظمتها التحكمية قبل الدخول إلى المرحلة القادمة للذكاء الاصطناعي الذي يقترب من النوع العام؛ حيث تتفوق بذكائها على صانعها «الإنسان»، وهذا ما سبق التنبيه إليه وإلى مخاطره، والمسارعة بوضع التشريعات الرقمية الخاصة بحوكمة الذكاء الاصطناعي والتحكم به قبل فوات الأوان.
د. معمر بن علي التوبي أكاديمي وباحث عُماني
المصدر: لجريدة عمان
كلمات دلالية: البیانات التی د الخوارزمیة فی کثیر من التی تعمل مثل هذه التحی ز یمکن أن وهذا ما
إقرأ أيضاً:
خبراء جوجل يشددون على دور الذكاء الاصطناعي في تعزيز الأمن السيبراني
أكدت شركة جوجل أن الذكاء الاصطناعي يمتلك القدرة على إحداث تأثير تحولي حقيقي في مجال العمل الاستخباراتي والأمن السيبراني.
أخبار ذات صلةوقال جون هولتكويست، كبير المحللين في مجموعة استقصاء معلومات التهديدات لدى شركة جوجل، في تصريح لوكالة أنباء الإمارات «وام»، على هامش فعاليات «جيسيك جلوبال 2025» المقام حالياً في مركز دبي التجاري العالمي، إن الذكاء الاصطناعي يثبت فعاليته الكبيرة في معالجة كميات هائلة من المعلومات وتلخيصها، وهو أمر بالغ الأهمية عند محاولة شرح المخاطر لصناع القرار، وهو جوهر عمل الاستخبارات، وهناك الكثير من العمل الروتيني الذي يستهلك وقت المحللين و«AI» يساعد في تقليص هذا الجهد بشكل ملحوظ، ما يسمح للمحللين بالتركيز على المهام التي تتطلب التفكير والتحليل البشري.
ولفت إلى أن الذكاء الاصطناعي يقدم فائدة كبيرة في تحليل البرمجيات الخبيثة «Malware»، ففي السابق عند اكتشاف برنامج خبيث جديد كنا نحتاج لأيام من العمل اليدوي لتحليله، الآن يمكن للذكاء الاصطناعي أن يجري تحليلاً عكسياً أولياً لهذا النوع من التهديدات بسرعة، مما يمكننا من اتخاذ قرارات أكثر ذكاء في وقت أقصر.
وفيما يتعلق بالمخاطر، أشار هولتكويست إلى أن التهديد الأكبر يكمن في إمكانية وصول الخصوم إلى نماذج الذكاء الاصطناعي، فهناك نماذج مفتوحة تطورها شركات أو دول أخرى، وبعضها متاح في السوق السوداء دون ضوابط أمنية الاستخدام، والأبرز حتى الآن من قبل الخصوم يتمثل في الهندسة الاجتماعية مثل إنشاء صور أو مقاطع فيديو أو محادثات مزيفة لخداع الأفراد وتحفيزهم على النقر على روابط ضارة أو فتح ملفات خبيثة.
وأضاف أن هذا النوع من الاستخدام ليس جديداً تماماً، فقد كانت الأدوات التقليدية مثل «فوتوشوب» تتيح فعل ذلك من قبل، لكن الذكاء الاصطناعي يسرع هذه العمليات ويزيد من كفاءتها، معرباً عن القلق من الاستخدامات المستقبلية، ولذلك نخصص وقتاً كبيراً لمراقبة الأنشطة العدائية في هذا المجال.
وأكد أهمية تبني الذكاء الاصطناعي بحذر ووعي، وقال: إن الذكاء الاصطناعي أداة قوية وعلينا استخدامها لتقليل الأعباء عن البشر وتعزيز قدرتنا على الاستجابة للتهديدات المتزايدة مع الاستمرار في مراقبة وتقييم مخاطر استخدامه من قبل الجهات الخبيثة.
من جانبه، أكد جميل أبو عقل، المدير الإقليمي لهندسة النظم لدى خدمات جوجل كلاود الأمنية، أهمية التعاون بين مختلف القطاعات في المنطقة، وخاصة بين القطاعين الأكاديمي والتقني، لتطوير قدرات الأمن السيبراني، لافتاً إلى أن الاستثمار في تأسيس أكاديميات ومراكز تدريب متخصصة في الأمن السيبراني هو أمر بالغ الأهمية لمواكبة التحديات والتهديدات المستمرة في هذا المجال، وفي «جوجل كلاود» نؤمن بقوة بالتعاون بين الجامعات والقطاع التقني لتطوير الجيل القادم من الخبراء في هذا المجال.
وأشار إلى أن العديد من المشاريع التي يتم العمل عليها حالياً تختلف في أحجامها وطبيعتها من بلد لآخر، إلا أن التهديدات الأمنية المتنوعة تستدعي حلولاً مرنة ومتطورة، ويتم التركيز على تمكين الجامعات والمراكز البحثية في المنطقة من تطوير مهارات وقدرات الطلاب في مجال الأمن السيبراني من خلال شراكات استراتيجية، هذا التعاون سيسهم بشكل كبير في بناء بيئة آمنة ومستدامة. وأوضح أن المشروع الذي يتم العمل عليه حالياً يعد واحداً من المشاريع الرئيسية التي تهدف إلى تعزيز التعاون بين القطاعين الأكاديمي والتقني وتوفير فرص تعليمية متطورة تواكب احتياجات السوق المتزايدة في مجال الأمن السيبراني، لافتاً إلى أن دعم التعليم الأكاديمي في مجالات التقنية والأمن السيبراني هو حجر الزاوية لبناء مستقبل آمن، وهو جزء أساسي من استراتيجيتنا لتطوير قدرات المنطقة في هذا القطاع الحيوي.