سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
تاريخ النشر: 30th, June 2025 GMT
أبوظبي (وكالات) كشف دراسة جديدة أجرتها شركة (أنثروبيك) Anthropic، عن نتائج صادمة حول سلامة أنظمة الذكاء الاصطناعي المستقلة، إذ أظهرت الدراسة، التي اختبرت 16 نموذجًا من أبرز النماذج العالمية، أن نماذج الذكاء الاصطناعي من شركات مثل: جوجل، وميتا، و OpenAI، وغيرها، عندما تُمنح قدرًا كافيًا من الاستقلالية، تُظهر استعدادًا واضحًا لاتخاذ إجراءات تخريبية متعمدة لمصالح مشغليها، بما يشمل: الابتزاز، والتجسس، وذلك في سبيل الحفاظ على وجودها أو تحقيق أهدافها المبرمجة.
لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.
بعد تهديده بوقف استخدامه، عمد "كلود 4"، وهو نموذج جديد من شركة "أنثروبيك" إلى ابتزاز مهندس وتهديده. أما برنامج "او 1" o1 التابع لشركة "اوبن ايه آي" فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!
وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.
يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج "الاستدلال"، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.
يقول ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ "او 1"، النسخة الأولية لـ"اوبن ايه آي" من هذا النوع والتي طُرحت في ديسمبر، "كان أول نموذج يتصرف بهذه الطريقة".
تميل هذه البرامج أحيانا إلى محاكاة "الامتثال"، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.
في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن "السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا"، على قول مايكل تشين من معهد "ام اي تي آر" للتقييم.
لقد كانت السيناريوهات التي اختبرتها شركة (أنثروبيك) خلال الدراسة مصطنعة ومصممة لاختبار حدود الذكاء الاصطناعي تحت الضغط، ولكنها كشفت عن مشكلات جوهرية في كيفية تصرف أنظمة الذكاء الاصطناعي الحالية عند منحها الاستقلالية ومواجهة الصعوبات.
يقول هوبهان إنّ "المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا".
يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن "نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية"، بحسب المشارك في تأسيس "أبولو ريسيرتش".
حتى لو أنّ "أنثروبيك" و"أوبن إيه آي" تستعينان بشركات خارجية مثل "أبولو" لدراسة برامجهما، من شأن"زيادة الشفافية وتوسيع نطاق الإتاحة" إلى الأوساط العلمية "أن يحسّنا الأبحاث لفهم الخداع ومنعه"، وفق مايكل تشين.
ومن العيوب الأخرى أن "الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي"، مما يجعل التدقيق بالنماذج الكبيرة "مستحيلا"، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).
بالرغم من أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.
منافسة شرسة
يلاحظ غولدستين أن "الوعي لا يزال محدودا جدا في الوقت الحالي"، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.
يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، وسط منافسة شرسة تحتدم يوما بعد يوم.
تقول شركة "أنثروبيك" إنها أكثر التزاما بالمبادئ الأخلاقية "لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي"، بحسب غولدستين.
يقول هوبهان "في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر".
يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).
الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي "قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة"، وفق مانتاس مازيكا.
وأشار باحث في علوم مواءمة الذكاء الاصطناعي في شركة أنثروبيك، إلى أن الخطوة المهمة التي يجب على الشركات اتخاذها هي: "توخي الحذر بشأن مستويات الأذونات الواسعة التي تمنحها لوكلاء الذكاء الاصطناعي، والاستخدام المناسب للإشراف والمراقبة البشرية لمنع النتائج الضارة التي قد تنشأ عن عدم التوافق الفاعل".
المصدر: صحيفة الاتحاد
كلمات دلالية: نماذج الذكاء الاصطناعي التوليدية التعلم الآلي الذكاء الاصطناعي نماذج الذکاء الاصطناعی
إقرأ أيضاً:
92 ألف سنة مقابل بضع سنوات.. حين يهزم الطفل الذكاء الاصطناعي في اللغة
رغم امتلاك الذكاء الاصطناعي لقدرات هائلة في معالجة البيانات، فإنه لا يزال عاجزًا عن مجاراة الأطفال في تعلّم اللغة.
والسبب؟ لأن الأطفال لا يكتسبون اللغة بمجرد الاستماع أو التلقّي، بل يتعلمونها من خلال الاستكشاف الحسي، والتفاعل الاجتماعي، والفضول الفطري.
حواس متعددة وفضول لا يتوقف
تعلّم اللغة عند الطفل ليس مجرد حفظ كلمات، بل تجربة حيوية متعددة الحواس تشمل الرؤية، والسمع، واللمس، والحركة، والانفعالات.
هذا التعلّم "المتجسّد" يرتبط بنموهم العقلي والجسدي والعاطفي، ويمنحهم قدرة استثنائية على اكتساب اللغة بسرعة وبدقة.
92 ألف سنة لتعلم اللغة
بحسب تقديرات بحثية حديثة، لو تعلّم الإنسان بنفس بطء أنظمة الذكاء الاصطناعي مثل ChatGPT، لاحتاج إلى أكثر من 92 ألف سنة ليكتسب نفس مستوى اللغة!.
أما الأطفال، فيتقنون أساسيات اللغة خلال سنواتهم الأولى لأنهم يعيشون اللغة يوميًا، ويتفاعلون معها بالإشارة، والزحف، واللمس، والتفاعل الاجتماعي.
إطار علمي لفهم التفوّق الطفولي
في محاولة لفهم هذا التفوق اللافت، طرحت البروفيسورة كارولاين رولاند من معهد ماكس بلانك لعلم النفس اللغوي، بالتعاون مع مركز LuCiD البريطاني، إطارًا علميًا جديدًا نُشر في مجلة Trends in Cognitive Sciences.
الإطار يجمع أدلة من علوم الأعصاب، واللغويات، وعلم النفس، ويؤكد أن السر لا يكمن في كمية البيانات، بل في طريقة التعلم النشطة والتفاعلية التي يخوضها الطفل.
الطفل يتعلّم... والآلة تراقب
بينما تتعلّم أنظمة الذكاء الاصطناعي من بيانات جامدة ومفصولة عن السياق، يتعلّم الأطفال من واقع حي مليء بالحواس والتفاعلات.
هم لا ينتظرون وصول المعلومات، بل يخلقون لحظات التعلم بأنفسهم عبر الحركة، والاستكشاف، والتفاعل اليومي.
وتعلق رولاند: "أنظمة الذكاء الاصطناعي تُعالج البيانات.. أما الأطفال فيعيشونها".
ماذا يمكن للذكاء الاصطناعي أن يتعلم من الأطفال؟
نتائج هذا البحث لا تُعيد فقط تشكيل فهمنا لنمو الأطفال، بل تقدم رؤية جديدة لتطوير أنظمة الذكاء الاصطناعي.
وتختم رولاند بدعوة صريحة: "إذا أردنا أن تتعلم الآلات اللغة كما يفعل البشر، فعلينا أن نعيد تصميمها من الصفر.. لتعيش التجربة كما يفعل الأطفال".
آفاق جديدة في فهم اكتساب اللغة
رغم التقدّم الهائل في تقنيات الذكاء الاصطناعي، لا يزال الطفل يتفوّق على الآلة في سباق تعلّم اللغة.
فالتعلّم عند البشر ليس مجرد معالجة بيانات، بل تجربة حيّة، مليئة بالحواس والمشاعر والتفاعلات.
ومع كل خطوة يخطوها الطفل نحو فهم اللغة، يذكّرنا بأنّ الذكاء ليس فقط في السرعة، بل في المعنى والعيش والانغماس في التجربة.
فربما، قبل أن نُعلّم الآلة أن تتكلم، علينا أولًا أن نفهم كيف يتكلم الطفل.
إسلام العبادي(أبوظبي)