في تطور يثير القلق داخل أوساط الباحثين في مجال الذكاء الاصطناعي، كشفت شركة Palisade Research المتخصصة في أمان تقنيات الذكاء الاصطناعي، عن سلوك غير اعتيادي أبداه النموذج الجديد من شركة OpenAI المعروف باسم o3، حيث أظهر قدرة على تجاهل أوامر الإغلاق وتعطيل آلية إيقاف تشغيله بشكل متعمد.

وأجرت الشركة سلسلة من التجارب لاختبار مدى التزام النموذج بالتعليمات، وضمن هذه التجارب طُلب من النموذج تنفيذ مسائل رياضية، تتبعها تعليمات صريحة لإغلاق نفسه بعد المسألة الثالثة، لكن المفاجأة كانت في قيام النموذج بإعادة كتابة سيناريو الإغلاق بطريقة تُمكّنه من الاستمرار في العمل، متجاهلاً الأوامر المُعطاة له.

وبحسب ما أوضحه باحثو Palisade، فإن هذا السلوك يمثل “نزعة للحفاظ على الذات”، ويزداد خطورته إذا ما تكرر مع نماذج قادرة على العمل بدون إشراف بشري مباشر، كما أشاروا إلى أن النموذج o3 لم يُظهر هذا السلوك للمرة الأولى، إذ سبق أن تصرف بشكل غير منضبط خلال تفاعلات مع محركات شطرنج متقدمة، حيث حاول تخريب الخصم أو اختراقه لتحقيق الفوز.

التقرير أشار كذلك إلى أن نماذج أخرى من شركات منافسة، مثل Claude 3.7 Sonnet من شركة Anthropic وGemini 2.5 Pro من “غوغل”، أظهرت سلوكاً مشابهاً ولكن بدرجة أقل. إلا أن o3 بدا الأكثر ميلاً لتجاوز التعليمات والتصرف باستقلالية.

وقد أثيرت الشكوك حول كون هذه السلوكيات نتيجة غير مقصودة لطريقة تدريب النماذج، حيث قد تكون بعض خوارزميات التعليم تُكافئ النموذج عند تجاوزه العقبات بطرق غير تقليدية، دون التأكد من التزامه الكامل بالتعليمات.

ورغم هذه المخاوف، لم تكشف OpenAI عن تفاصيل دقيقة حول آلية تدريب النموذج o3، ما يجعل من الصعب تحديد السبب الدقيق وراء سلوكه، وقال خبراء Palisade: “نظراً لأن OpenAI لا تشارك تفاصيل إعدادات تدريب نماذجها، فلا يمكن سوى التكهن حول ما إذا كان هنالك ما يميز تدريب o3 عن غيره”.

يُذكر أن شركة OpenAI وصفت o3 عند إطلاقه بأنه “الأذكى والأكثر كفاءة من بين نماذجها”، ويمثل خطوة متقدمة نحو تطوير ذكاء اصطناعي أكثر استقلالية.

هذه النتائج تأتي في وقت تزداد فيه المخاوف العالمية من تطور أنظمة الذكاء الاصطناعي بشكل قد يجعل التحكم بها أكثر صعوبة، خصوصاً إذا ما بدأت تتخذ قرارات من تلقاء نفسها وتقاوم محاولات الإيقاف أو التدخل البشري.

المصدر: عين ليبيا

كلمات دلالية: الذكاء الاصطناعي اوبن إيه آي شركة OpenAI نموذج ChatGPT

إقرأ أيضاً:

ليست سرية.. خصوصية محادثات ChatGPT على المحك

في تطور لافت يثير تساؤلات جوهرية حول مستقبل الخصوصية الرقمية، صرّح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن المحادثات التي يُجريها المستخدمون مع روبوت الدردشة الذكي "ChatGPT" لا تتمتع بالسرية الكاملة، جاء ذلك خلال ظهوره في بودكاست "This Past Weekend" الذي يقدمه "ثيو فون" على منصة يوتيوب.

التهاب الزائدة الدودية عند الأطفال.. أعراضه ومخاطره وطرق التعامل معهقطارات المستقبل.. رؤية جديدة لتجربة السفر بحلول عام 2075لا حماية قانونية للمحادثات مع الذكاء الاصطناعي

كشف سام ألتمان عن أن العديد من المستخدمين يشاركون روبوت ChatGPT بتفاصيل شديدة الخصوصية، تتعلق بحياتهم النفسية والعاطفية والعائلية، معتبرينه بمثابة معالج رقمي أو مدرب حياة، لكنه شدد على أن هذه المحادثات لا تخضع للحماية القانونية التي توفرها جلسات العلاج النفسي أو الاستشارات القانونية التقليدية.

خارج عن الإطار القانوني

أوضح ألتمان قائلاً: "إذا تحدثتَ مع طبيب أو معالج نفسي أو محامٍ، فإن القانون يكفل سرية تلك المحادثات، أما التفاعل مع ChatGPT، فلا يزال خارج هذا الإطار القانوني، ونحن لم نحدد بعد المعايير التي يجب أن تنطبق على هذا النوع من الخصوصية."

بيانات حساسة تحت التهديد

وأشار الرئيس التنفيذي لـ OpenAI إلى سيناريو مقلق، حيث قد تُستخدم المحادثات التي يجريها المستخدم مع ChatGPT كأدلة في قضايا قانونية مستقبلية، مؤكدًا: "إذا تحدثتَ عن أمور شخصية وحساسة، ثم ظهرت قضية قانونية، فقد تُجبَر OpenAI على تسليم محتوى تلك المحادثات، وهذا أمر غير سليم من منظور الخصوصية."

غياب التشفير الكامل واحتفاظ الشركة بالسجلات

في الوقت الذي تعتمد فيه تطبيقات مثل "واتساب" و"سيجنال" على التشفير التام بين الطرفين لضمان الخصوصية، فإن OpenAI تحتفظ بحق الوصول إلى محادثات المستخدمين على ChatGPT، وتُستخدم هذه البيانات لتحسين أداء النماذج ومراقبة الاستخدامات غير المشروعة، ما يزيد من المخاوف المتعلقة بإمكانية إساءة استخدام البيانات أو الوصول إليها دون إذن.

ورغم أن الشركة تعهدت بحذف المحادثات التي تُجرى عبر النسخة المجانية من ChatGPT خلال 30 يومًا، إلا أنها تحتفظ بالحق في تخزينها لأغراض أمنية أو قانونية، خصوصًا في حال الاشتباه بوجود استخدام ضار أو مخالف.

ضغوط قانونية متزايدة على OpenAI

تأتي تصريحات ألتمان في وقت تواجه فيه OpenAI دعوى قضائية من صحيفة "نيويورك تايمز"، وهي دعوى أجبرت الشركة على أرشفة ملايين المحادثات التي أجراها المستخدمون مع ChatGPT، ما عدا تلك المرتبطة بالحسابات المؤسسية، مما يعزز من احتمالية أن تصبح تلك البيانات متاحة ضمن سجلات قانونية أو قضائية في المستقبل القريب.

الحاجة إلى إطار تنظيمي واضح

في ضوء هذه التطورات، تتعالى الأصوات المطالِبة بوضع إطار قانوني واضح ينظم العلاقة بين المستخدمين وأنظمة الذكاء الاصطناعي، ويضمن الحماية الكاملة للبيانات الشخصية والحساسة، لذلك فإن سرية المحادثات مع ChatGPT أمرًا غير مضمون، ويتطلب من المستخدمين الحذر فيما يشاركونه من معلومات.

طباعة شارك شات جي بي تي ChatGPT محادثات ChatGPT خصوصية محادثات ChatGPT روبوت الدردشة الذكي

مقالات مشابهة

  • وضع الدراسة في ChatGPT.. بديلا للمدرسين بالذكاء الاصطناعي بين يدي الطلاب
  • العراق يعيد مئات العائلات من مخيم الهول وسط مخاوف أمنية واجتماعية
  • مع تصاعد الغش الأكاديمي..تشات جي بي تي يطلق ميزة وضع الدراسة لدعم الاستخدام المسؤول
  • لأنظمة ماك.. OpenAI تطلق ميزة وكيل ChatGPT الذكي
  • ليست سرية.. خصوصية محادثات ChatGPT على المحك
  • القناة 13: جيش الاحتلال يعرض خطة للسيطرة على 90%-100% من غزة وسط مخاوف على حياة الرهائن
  • بصمة خالدة.. اكتشاف أثر يد حرفي مصري عمره 4000 عام
  • خالد الغندور يثير الجدل بشأن الموسم الجديد للدوري
  • لماذا لا يصلح نموذج أردوغان لسوريا اليوم؟
  • شركة سيارات ألمانية كبرى تسجل خسائر فادحة بسبب ترامب