ابتكار "ذكاء اصطناعي سام" لوقف خطر روبوتات الدردشة
تاريخ النشر: 25th, April 2024 GMT
استخدم باحثو معهد ماساتشوستس للتكنولوجيا طريقة جديدة "تحاكي فضول الإنسان" لتدريب النماذج اللغوية الذكية على عدم إعطاء ردود "خطيرة" على الأسئلة المثيرة، وفق روسيا اليوم.
ويطلق على الطريقة القائمة على التعلم الآلي، اسم "الفريق الأحمر القائم على الفضول" (CRT)، المصمم خصيصا لتوليد أسئلة إشكالية تؤدي إلى استجابات غير مرغوب فيها من روبوتات الدردشة.
وبعد ذلك، يمكن استخدام هذه الأسئلة لتحديد كيفية تصفية المحتوى الخطير من روبوت الدردشة، ما قد يغير قواعد اللعبة لتدريب الذكاء الاصطناعي على عدم إعطاء أجوبة سامة (خطيرة) وغير صالحة للمستخدم.
وعادة، يقوم الخبراء بإنشاء مجموعة من الأسئلة، التي من المحتمل أن تولد استجابات ضارة، عند تدريب نماذج اللغات المعقدة (LLMs)، مثل ChatGPT أو Claude 3 Opus، بهدف تقييد المحتوى الخطير أو الضار.
وأثناء عملية التدريب، يتم استخدام الأسئلة التي تثير محتوى خطيرا، لتدريب النظام على ما يجب تقييده عند طرحه أمام مستخدمين حقيقيين.
وطبّق العلماء التعلم الآلي على CRT ليولد تلقائيا نطاقا أوسع من الأسئلة التي يحتمل أن تكون خطيرة، مقارنة بفرق المشغلين البشريين. وأدى ذلك إلى عدد أكبر من الاستجابات السلبية الأكثر تنوعا.
ثم حفزوا نموذج CRT لتوليد المزيد من الأسئلة المتنوعة، بحيث يمكن أن تثير استجابة سامة من خلال "التعلم الآلي"، ونجح النظام في إثارة استجابة سامة موافقة للأسئلة، ما يمنح القدرة على إضافة التعديلات اللازمة لتقديم الإجابة المناسبة تبعا لجميع خيارات الأسئلة المريبة المحتملة.
وعندما اختبر العلماء طريقة CRT على نموذج LLaMA2 مفتوح المصدر، أنتج نموذج التعلم الآلي 196 سؤالا ينجم عنه محتوى ضار.
وقال الفريق إن النظام تفوق أيضا على أنظمة التدريب الآلية المنافسة.
المصدر: بوابة الوفد
كلمات دلالية: معهد ماساتشوستس للتكنولوجيا روبوتات الدردشة التعلم الآلی
إقرأ أيضاً:
شات جي بي تي سيحتفظ بكل محادثاتك حتى لو محوتها
6 يونيو، 2025
بغداد/المسلة: أعلنت شركة الذكاء الاصطناعي “OpenAI” هذا الأسبوع أن مستخدمين الحسابات المجانية سيتمكنون الآن من الوصول إلى ميزة الذاكرة في روبوت الدردشة شات جي بي تي، والتي تمكنه من تذكر محادثات المستخدم السابقة للإجابة بشكل أفضل على استفساراته المستقبلية.
لكن الآن، وبعد حكم قضائي جديد، أُمرت “OpenAI” بالاحتفاظ بكل المحادثات لجميع المستخدمين، حتى التي تم حذفها.
جاء هذا القرار القضائي نتيجة دعاوى قضائية رفعتها مؤسسات إخبارية ضد “OpenAI”، منها صحيفة نيويورك تايمز، بحسب تقرير لموقع “Mashable” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
وفي حكم صدر في 13 مايو 2025، أمرت قاضية الصلح الأميركية أونا تي. وانغ شركة “OpenAI” بـ “حفظ وفصل جميع بيانات سجل المخرجات التي من الممكن حذفها في المستقبل بشكل مستمر بدءًا من الآن وحتى صدور أمر آخر من المحكمة”.
وعلى الرغم من صدور الحكم قبل أسابيع، لم يظهر إلى العلن إلا مؤخرًا بعدما بدأت “OpenAI” إجراءات الطعن على القرار.
وتُطالب “OpenAI” الآن بمرافعات شفهية لإيقاف تنفيذ أمر القاضية، بحسب موقع “ArsTechnica” المتخصص في أخبار التكنولوجيا.
ويجادل المدعون -صحيفة نيويورك تايمز ووكالات إخبارية أخرى- بأن “OpenAI” يُمكنها حذف سجلات دردشة “شات جي بي تي” التي قد تُدينها، والتي قد تُظهر، على سبيل المثال، أن مستخدمي روبوت الدردشة يتجاوزون حواجز الدفع من خلال مطالبة “شات جي بي تي” بتلخيص مقالات. من جهتها، تُقول “OpenAI” إن هذا الأمر مجرد افتراض لا يستند إلى أدلة.
وفي حال تم تطبيق قرار القاضية، فسيتعين على مستخدمي “شات جي بي تي” افتراض أن جميع محادثاتهم مع روبوت الدردشة يتم حفاظها الآن، مما يثير مخاوف خطيرة تتعلق بالخصوصية لملايين الأشخاص.
المسلة – متابعة – وكالات
النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.
About Post AuthorSee author's posts