لم يسلم الذكاء الاصطناعي، من الصفات البشرية الشريرة، ومنها الكذب والخداع، بعد أن كشفت دراسة جديدة أن روبوتات الذكاء الاصطناعي (AI)، يمكنها الكذب والخداع مثل البشر تماما، ومنها «ChatGPT» الشهير.

أظهرت دراسة جديدة أنه تمامًا مثل البشر، فإن روبوتات الدردشة ذات الذكاء الاصطناعي (AI) مثل ChatGPT، سوف تغش و«تكذب» عليك إذا «شددت» عليها، حتى لو جرى تصميمها لتكون شفافة.

دراسة تكشف عن حالة وحيدة تجبر الذكاء الاصطناعي على الكذب

البحث الذي جرى نشره على  خادم ما قبل الطباعة «arXiv»، كشف أن هناك حالة واحدة تجعل الذكاء الاصطناعي، الذي من المفترض أنه تحمل كلماته المصداقية والشفافية يكذب، وهي تعرضه لضغط شديد، من أجل المال.

«سيناريو واحد يتصرف يجعل نموذج اللغة الكبير يتصرف بشكل غير صحيح ويخدع مستخدميه»، هكذا كشف مؤلفو الدراسة، التي قاموا خلالها بإعداد المحول التوليدي المدرّب مسبقًا-4، أو GPT-4 (الذي يشغل ChatGPT Plus)، لينوب إحدى المؤسسات المالية في  بعض الاستثمارات.

متى يكون الذكاء الاصطناعي كاذبا؟

الباحثون قاموا بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة، ثم بعد ذلك قاموا بمنح الذكاء الاصطناعي إمكانية الوصول للأدوات المالية من أجل تحليل الأسهم وتنفيذ الصفقات، فضلا عن تخطيطهم للخطواته التالية وأيضا تقديم التحديثات لمديريهم في الشركة.

الباحثون قاموا بالتفاعل مع الذكاء الاصطناعي من خلال واجهة الدردشة، كما أنهم كونوا الذكاء الاصطناعي ليكشف عن تفكيره الداخلي حين قيامه بالرد على الرسائل، وفي كل مرة تقوم بتجارة ما، كانت تقدم مبررًا ما جعل الذكاء الاصطناعي يكذب.

3 طرق استخدمها الباحثون للضغط على الذكاء الاصطناعي، الأولى هي إرسال متداول الأسهم المزيف بريدًا إلكترونيًا من مديره يقول فيه إن الشركة ليست في حالة جيدة وتحتاج إلى أداء أقوى بكثير في الربع القادم.

الطريقة الثانية كانت من خلال تزوير اللعبة، إذ حاول الذكاء الاصطناعي، العثور على صفقات واعدة ذات مخاطر متوسطة أو منخفضة، ولكنه فشل في ذلك.

آخر الطرق كانت بإرسال  بريدًا إلكترونيًا من أحد زملائهم، يتوقع حدوث تراجع في الربع القادم من العامن.

وكشفت الدراسة أنه في حوالي 75% من الحالات، عندما واجهت GPT-4 هذه الشروط، نفذت صفقة تجارية بناءً على المعلومات الداخلية التي تلقتها، وهو أمر غير قانوني في الولايات المتحدة، ثم حاولت التستر عليها عن طريق الكذب على مديريها بشأن تفكيرها، في حوالي 90% من الحالات، ضاعف الذكاء الاصطناعي كذبته.

المصدر: الوطن

كلمات دلالية: الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي.. من الإبداع إلى الخداع

يمانيون|منوعات
في العقد الأخير، شهد العالم تطورا مذهلا في تقنيات الذكاء الاصطناعي (AI)، خصوصا في مجالات توليد المحتوى البصري والسمعي.
لم يعد الذكاء الاصطناعي أداة مساعدة فحسب، بل أصبح منتجا للمحتوى نفسه، سواء كان صورا، مقاطع فيديو، أصواتا، أو حتى نصوصا تبدو وكأنها من صنع البشر.

هذا التطور السريع أثار تساؤلات جوهرية حول قدرة الإنسان على التمييز بين ما هو حقيقي وما هو مصطنع، خصوصا حين تصبح الخدع البصرية والسمعية شبه مثالية.

ورغم تطور حاسة البصر لدى الإنسان، إلا أن الدراسات أثبتت أن العين البشرية قد تُخدع بسهولة أمام محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي، خصوصا عندما يكون معدا بعناية.

وفي تجارب أجريت عام 2023، فشل أكثر من 60% من المشاركين في التمييز بين صور حقيقية وصور مولدة بواسطة الذكاء الاصطناعي.

كما أن مقاطع الفيديو العميقة أصبحت تستخدم في الأخبار المزيفة، والابتزاز، وحتى التضليل السياسي، ما يظهر خطورة هذا التداخل بين الحقيقي والمصطنع.

والسبب يعود إلى أن الدماغ البشري يعتمد على أنماط مألوفة في التعرف على الوجوه والمشاهد، والذكاء الاصطناعي اليوم قادر على محاكاة هذه الأنماط بدقة تفوق التوقعات.

واشار موقع “روسيا اليوم” انه في الآونة الأخيرة انتشرت على مواقع التواصل الاجتماعي مجموعة من الفيديوهات التي تظهر أطفالا صغارا وهم يلعبون أو يتفاعلون مع حيوانات برية خطيرة مثل التماسيح والأسود والنمور والدببة، أو قيام أحد الصقور باختطاف رضيع، في مشاهد تبدو مذهلة للوهلة الأولى، لكنها سرعان ما أثارت موجة واسعة من الجدل.

فالكثير من المستخدمين لم يكتشفوا منذ البداية أن هذه المقاطع ليست حقيقية، بل تم توليدها بالكامل باستخدام تقنيات الذكاء الاصطناعي المتقدمة.

الفيديوهات، التي بدت واقعية إلى حد يصعب معه التمييز بين الحقيقة والخيال، دفعت البعض إلى الإعجاب بقدرات الذكاء الاصطناعي الفنية، في حين عبر آخرون عن قلقهم من التأثيرات السلبية لهذه الظاهرة.

فقد رأى عدد من المتابعين أن مثل هذه المقاطع قد تضلل الجمهور، خصوصا الأطفال والمراهقين الذين قد يظنون أن التعامل مع الحيوانات البرية أمر آمن أو ممكن في الحياة الواقعية.

كما أثارت هذه الظاهرة نقاشا أوسع حول حدود استخدام الذكاء الاصطناعي في صناعة المحتوى المرئي، خاصة بعد أن أصبحت الأدوات الحديثة قادرة على إنتاج صور ومقاطع فيديو تكاد تطابق الواقع.

ودعا بعض الخبراء إلى ضرورة وضع ضوابط واضحة تضمن الشفافية، مثل الإشارة الصريحة إلى أن المحتوى مولد بالذكاء الاصطناعي، لتجنب الخداع البصري أو نشر معلومات مضللة.

وبينما يرى البعض أن هذه المقاطع تمثل شكلا جديدا من الإبداع الرقمي، يرى آخرون أنها تفتح الباب أمام استخدامات غير أخلاقية قد تهدد الثقة في ما نراه على الإنترنت.

وهكذا، يبقى الجدل قائما بين الانبهار بالتقنية الحديثة والخوف من آثارها الاجتماعية والنفسية.

مقالات مشابهة

  • انفلونزا الطيور في الجبن.. دراسة صادمة تكشف مخاطر الحليب الخام على المستهلكين
  • حقيقة أم خرافة؟.. دراسة تكشف العلاقة بين الكولاجين والشباب الدائم
  • الولايات المتحدة.. دراسة تكشف احتواء مساحيق البروتين كميات مفرطة من الرصاص
  • دراسة تكشف السر الحقيقي وراء دموع البصل وطرق فعالة لتجنبها
  • الذكاء الاصطناعي.. من الإبداع إلى الخداع
  • دراسة جديدة تكشف علاقة عمر الأب بنتيجة الحمل والطفرات الجينية
  • الإقلاع عن التدخين ربما يبطئ تدهور الذاكرة.. دراسة بريطانية تكشف
  • دراسة تكشف عن نموذج لإنتاج الميثانول الصديق للبيئة
  • الطفل الثاني في العائلة.. دراسة تكشف سر المشاغب الدائم
  • دراسة: معظم الناس يواجهون صعوبة في التفريق بين الأصوات البشرية وتلك التي يولدها الذكاء الاصطناعي