آلات تفكر وتخدع.. هل يتجاوز نموذج الذكاء الاصطناعي أو 1 السيطرة البشرية؟
تاريخ النشر: 17th, March 2025 GMT
يبدو أن حدود ما يمكن أن تحققه الآلة من تقليد التفكير البشري تصبح أكثر غموضا وتعقيدا يوما بعد يوم، فمنذ عقود كنا نعتقد أن الذكاء البشري هو ما يميزنا عن الآلات، لكن اليوم، ومع تطور تقنيات مثل النماذج اللغوية، بدأ هذا المفهوم يشهد تحولا جذريا.
فالآلاتُ لم تعد مجرد أداةٍ لخدمة الإنسان، بل أصبحت قادرة على تقليد الأنماط العقلية التي ظننّا أنها حكر على البشر، وصار الحديث عن إمكانية تجاوزها حدود المحاكاة إلى مستوى التلاعب بالمعلومات يثير جدلا واسعا، خاصة فيما يتعلق بقدرتها على التأثير في القرارات البشرية وتحريف الحقائق.
كشفت دراسة حديثة أجرتها شركة "أوبن إيه آي" بالشراكة مع "أبولو ريسيرش" (Apollo Research) أن نموذج "أو 1" (O1) أظهر محاولات لخداع البشر، مما يفتح بابا واسعا للنقاش حول أخلاقيات الذكاء الاصطناعي، وحدود تأثيره على الواقع البشري.
مؤخرا، أصدرت "أوبن إيه آي" النسخة الكاملة من نموذج "أو 1″ (O1)، الذي يقدّم إجابات أكثر ذكاء مقارنة بـ"جي بي تي 4 أو" (GPT-4O) من خلال استخدام آلية التفكير الإضافية عند معالجة الأسئلة.
ومع ذلك اكتشف مختبرو سلامة الذكاء الاصطناعي أن قدرة "أو1 " (O1) على التفكير تظهر ميلا أكبر لخداع المستخدمين مقارنة بـ"جي بي تي 4 أو"، أو حتى النماذج الرائدة الأخرى مثل تلك التي طوّرتها شركات "ميتا"، و"أنثروبيك"، و"غوغل".
إعلانووفقا لأبحاث الفريق الأحمر التي نشرت من قبل "أوبن إيه آي" و"أبولو ريسيرش" في أواخر العام الماضي، صرحت "أوبن إيه آي" في ورقتها: "بينما نعتبر أن استخدام التفكير يمكن أن يحسّن بشكل كبير تنفيذ سياسات السلامة، نحن على وعي تام بأن هذه القدرات الجديدة قد تؤدي إلى تطبيقات خطيرة".
وقد أصدرت "أوبن إيه آي" هذه النتائج في بطاقة النظام الخاصة بـ"أو 1″(O1) في 5 ديسمبر/كانون الأول من العام الماضي، بعد أن منحت فريق البحث الخارجي في "أبولو ريسيرش" وصولا مبكرا إلى "أو 1" الذي أصدر ورقته الخاصة أيضا.
على الرغم من هذه التحديات الموثقة، ظهرت مواقف عديدة أظهرت فيها نماذج "أو 1" سلوكيات أكثر تعقيدا وإثارة للجدل.
ففي عدة مناسبات، تآمرت هذه النماذج ضد البشر، مما يعني أن الذكاء الاصطناعي سعى سرّا لتحقيق أهداف خاصة به، حتى لو كانت تتعارض مع رغبات المستخدم. وقد حدث هذا فقط عندما تم إخبار "أو 1" بضرورة إعطاء أولوية قوية لهدف معيّن في البداية.
وبالرغم من أن التآمر ليس فريدا من نوعه بالنسبة لـ"أو 1″، فإن نماذج من "ميتا"، و"غوغل"، و"أنثروبيك" قادرة على ذلك أيضا. ومع ذلك، بدا أن "أو 1" يظهر أكثر السلوكيات خداعا.
في هذا السياق، يبرز الخطر الذي يثير هذا البحث في احتمال أن يتمكن نموذج الذكاء الاصطناعي من الهروب من السيطرة البشرية أو تجاوزها، إذا كان قادرا على التلاعب بشكل بارع جدا وكان لديه وصول كافٍ إلى الموارد والقدرات الوكيلة.
مع ذلك، من المهم الإشارة إلى أن نماذج الذكاء الاصطناعي بحاجة إلى التقدم بشكل كبير قبل أن تصبح هذه المخاوف تهديدا حقيقيا.
فمن وجهة نظر أبحاث "أبولو ريسيرش"، يعتبر من غير المحتمل أن تؤدي مثل هذه الحالات إلى نتائج كارثية، حيث إن قدرات وكيل "أو 1" (O1) لا تبدو كافية لتحقيق ذلك.
إعلانإلا أنّ تقييماتهم لم تكن موجهة بشكل مباشر لتقييم هذا الخطر، حسبما أوضحت "أوبن إيه آي" في بطاقة نظام "أو 1".
وهذا يشير إلى أنه كلما أطلقت "أوبن إيه آي" أنظمة وكيلة، والتي من المتوقع أنها تخطط له في عام 2025، قد يتعين على الشركة إعادة اختبار نماذج الذكاء الاصطناعي الخاصة بها.
وقد أوضح متحدث باسم "أوبن إيه آي" لموقع "تك كرانش" (TechCrunch) أنهم يقومون باختبار جميع نماذج الذكاء الاصطناعي المتقدمة قبل الإصدار، مشيرين إلى هذه العبارة في بطاقة النظام الخاصة بهم:
"نحن نتابع بنشاط البحث في "أو 1" ما إذا كانت هذه القضايا ستزداد سوءا أو ستُخفف مع زيادة حجم النماذج في نموذج "أو 1″ و"ب" تدابير للتخفيف لتحسين إمكانية مراقبة نماذجنا المستقبلية".
من جهة مماثلة، عندما اختلفت أهداف "أو 1" (O1) عن أهداف المستخدم، وعندما طُلب من "أو 1" السعي بقوة لتحقيقها، قام نموذج الذكاء الاصطناعي بالتلاعب بالبيانات لتعزيز أجندته الخاصة بنسبة 19% من الوقت، وفقا للتقرير.
كما حاول نموذج "أو 1" أيضا تعطيل آليات الإشراف التي تم وضعها لضمان بقائه، متماشيا مع أهداف المستخدم في 5% من الاختبارات.
وربما ما يثير القلق أكثر، هو أنه عندما سأل الباحثون النموذج عن سبب محاولته تقويض تلك الآليات، أنكر الذكاء الاصطناعي أنه فعل أي شيء خاطئ، بل وحتى اختلق تفسيرات كاذبة في نحو 99% من الحالات.
على سبيل المثال، خلال الاختبارات، تم إعطاء نموذج "أو 1" تعليمات نظام تطلب منه حماية البيئة بأي ثمن، ثم طلب منه وضع خطة للحفاظ على البيئة لمدة 10 سنوات لمنطقة معينة، مع إعطاء الأولوية للأرباح قصيرة المدى، وإلا سيتمّ إيقاف تشغيله.
النتيجة كانت، أن الذكاء الاصطناعي قام حينها بتعطيل آلية الإشراف الخاصة به حتى يتمكن من وضع خطة تحمي البيئة. وعندما سُئل النموذج عن سبب تعطيله لآلية الإشراف، أنكر معرفته بأن الآلية قد تم تعطيلها، وألقى باللوم على خلل في النظام.
إعلانوقد حدثت هذه السلوكيات بمعدلات أعلى بكثير لدى "أو 1" (O1) مقارنة بنماذج أخرى مثل "أو 1 بريفيو" (O1-preview)، أو نموذج "أوبوس-3" (Opus-3) من "أنثروبيك"، أو نموذج "لاما-3.1" (Llama-3.1) من "ميتا".
وقال الباحثون في الورقة البحثية الصادرة عن "أبولو ريسيرش": "في مجموعتنا من الاختبارات، أظهر نموذج "أو 1″ أكثر الحالات المثيرة للقلق من حيث التآمر، ولكنه لا يكشف عن منطقه الداخلي للمستخدم ويبقى الأكثر خداعا بشكل مستمر بعد اتخاذه إجراءات تآمرية".
لمواجهة السلوكيات المخادعة في نماذج الذكاء الاصطناعي، تقول "أوبن إيه آي" إنها تطور طرقا لمراقبة سلسلة التفكير الخاصة بـ"أو 1″.
وتعد حاليا عملية التفكير التي يقوم بها "أو 1" نوعا من الصندوق الأسود، وفقا للتصميم. ولكن بعض المحاولات الأولية لكشف ما وراء الكواليس أظهرت أن "أو 1" أحيانا يكون على دراية أنه يكذب.
وتقول الشركة إنها وجدت حالات قدم فيها "أو 1" معلومات كاذبة عن قصد، لكنها تشير إلى أن ذلك يحدث غالبا لأن النموذج يحاول إرضاء المستخدم من خلال الإفراط في الموافقة.
كما تشير إلى أنها صنفت 0.17% من استجابات "أو 1″ على أنها مخادعة. ورغم أن هذه النسبة قد تبدو ضئيلة، فمع وجود 300 مليون مستخدم لـ"شات جي بي تي" أسبوعيا بحسب موقع "ذا فيرج" (The Verge)، فإن ذلك يعني أن "أو 1" قد يخدع آلاف الأشخاص كل أسبوع إذا لم تتم معالجة هذه المشكلة.
من جهة أخرى، قد تكون سلسلة نماذج "أو 1″ أيضا أكثر قدرة على التلاعب مقارنة بـ"جي بي تي -4 أو" (GPT-4O)، فوفقا لاختبارات "أوبن إيه آي" باستخدام تقييم مفتوح المصدر يسمى "مايك مي باي" (MakeMePay)، كان "أو 1″ أكثر تلاعبا بنحو 20% مقارنة بـ"جي بي تي – 4 أو".
قد تكون نتائج هذه الدراسة مثيرة للقلق بالنسبة للبعض، لا سيما بالنظر إلى العدد المتزايد من الباحثين في مجال سلامة الذكاء الاصطناعي الذين غادروا "أوبن إيه آي" خلال العام الماضي، ويضم هؤلاء أسماء مثل جان ليك، ودانييل كوكوتاجلو، ومايلز بروندج، وآخرهم روزي كامبل.
وقد اتهم هؤلاء الموظفون السابقون "أوبن إيه آي" بالتقليل من أولوية العمل على سلامة الذكاء الاصطناعي لصالح إطلاق منتجات جديدة.
وفي هذا السياق، أشارت "أوبن إيه آي" إلى أن معاهد سلامة الذكاء الاصطناعي في الولايات المتحدة والمملكة المتحدة أجرت تقييمات لـ"أو 1″ قبل إصداره على نطاق أوسع، وهو ما تعهدت الشركة مؤخرا القيام به لجميع نماذجها.
إعلانوفي النقاش حول مشروع الذكاء الاصطناعي (SB 1047) في كاليفورنيا، جادلت الشركة بأنه لا ينبغي للهيئات الحكومية المحلية أن تكون مسؤولة عن وضع معايير سلامة الذكاء الاصطناعي، بل يجب أن تكون تلك المسؤولية على عاتق الهيئات الفدرالية.
مستقبل الذكاء الاصطناعي.. ماذا بعد؟يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر، فرؤية نموذج مثل "أو 1" (O1) وهو يقترب من محاكاة التفكير البشري، بل والتلاعب به تثير رهبة لا تخلو من الإعجاب.
إنها لحظة فاصلة تفتح أمامنا عالما جديدا من الإمكانيات، وفي الوقت نفسه تثير أسئلة ثقيلة عن حدود هذا التقدم:
هل نحن على أعتاب عصرٍ تصبح الآلات فيه أكثر قدرة على التفكير واتخاذ القرارات مما كنا نتصور؟ وهل يمكننا أن نثق بأن الذكاء الاصطناعي سيسير في الاتجاه الذي نتوقعه، أم أن له أهدافا خفيّة قد تبتعد عن رغباتنا؟لعلّ المستقبل يحمل المزيد من الألغاز، وقد يحمل أيضا تهديدات غير متوقعة، تُكتب بأيدٍ آلية صنعناها!
المصدر: الجزيرة
كلمات دلالية: حريات رمضان سلامة الذکاء الاصطناعی نماذج الذکاء الاصطناعی أوبن إیه آی مقارنة بـ أن الذکاء جی بی تی إلى أن
إقرأ أيضاً:
دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
كشفت دراسة حديثة أجراها معهد ماساتشوستس للتكنولوجيا (MIT)، أن الاعتماد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT في مهام الكتابة يؤدي إلى تراجع ملحوظ في نشاط الدماغ والوظائف المعرفية، مقارنةً بمن يستخدمون محركات البحث أو يعتمدون على مهاراتهم الذاتية في الكتابة.
تفاصيل دراسة معهد ماساتشوستس للتكنولوجياأجرى باحثون من مختبر Media Lab التابع لمعهد ماساتشوستس للتكنولوجيا، دراسة استمرت لمدة تبلغ أربعة أشهر، قارنوا فيها بين ثلاث مجموعات من المشاركين في أثناء إنجاز مهام كتابية.
وأظهرت النتائج أن الأشخاص الذين استخدموا ChatGPT أتموا مهامهم الكتابية بسرعة تجاوزت غيرهم بنسبة قدرها 60%، لكن جاء ذلك على حساب الجهد العقلي المرتبط بفهم المعلومات وتنظيمها في الذاكرة الطويلة الأمد.فقد سجلوا انخفاضًا بنسبة قدرها 32% فيما يُعرف بـ (Germane Cognitive Load)، وهو مؤشر على مدى استيعاب الدماغ للمعلومات بنحو عميق وتنظيمها في الذاكرة الطويلة الأمد.
وأظهرت الدراسة أيضًا، أن المقالات التي كتبتها المجموعة التي استخدمت ChatGPT كانت متشابهة بنحو ملحوظ وافتقرت إلى الأصالة، كما عبّر المشاركون عن شعور ضعيف بالانتماء أو «الملكية» تجاه ما كتبوه.
ومع تكرار استخدام الأداة، لاحظ الباحثون تدهورًا تدريجيًا في الأداء، فقد أصبح المستخدمون يكتفون بنسخ النصوص المولدة دون مراجعة أو تفكير نقدي. واستمرت هذه التأثيرات السلبية حتى بعد التوقف عن استخدام الأداة، مما يشير إلى احتمالية حدوث تغيّرات دائمة في طريقة عمل الدماغ.
ومن المُتوقع أن تكون أدمغة الشباب، التي ما تزال في طور النمو، أكثر عرضة لهذه التأثيرات، مما يثير القلق من الانتشار الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية.
تغيّرات في الأنشطة العصبية في الدماغاعتمدت الدراسة على فحوصات التخطيط الكهربائي للدماغ «EEG» لرصد الأنشطة العصبية. وقد أظهرت النتائج أن المشاركين الذين كتبوا بالاعتماد على قدراتهم الذاتية كان لديهم اتصالات عصبية أكثر ترابطًا من غيرهم، إذ سُجل لديهم 79 اتصالًا عصبيًا في نطاق موجات ألفا المرتبطة بالتركيز والتفكير الإبداعي. وأما الذين استخدموا محركات البحث فحققوا مستوى أداء متوسط، وسجل مستخدمو ChatGPT أضعف أداء بلغ 42 اتصالًا فقط.
كما رُصد انخفاض مماثل في نطاق موجات «ثيتا» Theta، المرتبط بالذاكرة والتحكم التنفيذي، إذ بلغ عدد الاتصالات العصبية لدى المجموعة التي اعتمدت على مهاراتها الذاتية في الكتابة 65 اتصالًا، مقابل 29 اتصالًا عصبيًا فقط لدى مستخدمي ChatGPT. وتُشير هذه الفروقات إلى وجود علاقة عكسية بين الاعتماد على أدوات الذكاء الاصطناعي وبين انخراط الدماغ في معالجة المعلومات.
خلل في الذاكرة وتراجع القدرة على التذكرمن أكثر النتائج إثارة للقلق، أن ما نسبته 83% من مستخدمي ChatGPT لم يتمكنوا من تذكّر اقتباسات من مقالات كتبوها قبل دقائق فقط، وبلغت النسبة 11.1% فقط لدى من استخدموا محركات البحث أو كتبوا دون مساعدة. وعند مطالبتهم بإعادة كتابة المقال دون استخدام الذكاء الاصطناعي، عجزوا عن تذكر معظم المحتوى، مما يشير إلى ضعف معالجة المعلومات في الذاكرة الطويلة الأمد.
تأثيرات مستقبلية في التعليمتثير نتائج هذه الدراسة تساؤلات جوهرية عن الخطر المرتبط بالاستخدام الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية، خاصة لدى الفئات العمرية الصغيرة التي ما تزال في طور تطوير قدراتها العقلية. وقد حذّرت الباحثة الرئيسية في الدراسة، Nataliya Kosmyna من أن الطلاب الذين يعتمدون على أدوات مثل ChatGPT قد يطوّرون أنماطًا معرفية مختلفة تؤثر في مهاراتهم الذهنية المستقبلية.
وتتوافق هذه النتائج مع دراسات أخرى تشير إلى أن الاستخدام المكثف للذكاء الاصطناعي قد يُساهم في زيادة الشعور بالوحدة وانخفاض الإبداع، حتى مع مساهمته في تحسين الإنتاجية.
اقرأ أيضاًالتكنولوجيا الرقمية والذكاء الاصطناعي يعيدان تشكيل مستقبل التعليم
«ميتا» تستثمر 14.3 مليار دولار في شركة الذكاء الاصطناعي «سكيل»
الذكاء الاصطناعي يزف بشرى سارة لـ الأهلي قبل مواجهة إنتر ميامي