حذّر باحثون من أن الذكاء الاصطناعي بات قادرا على خداع البشر، مؤكدين أن الآتي ربما سيكون أعظم.
ويخشى البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً، لكنّ هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ إن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر.
وأعرب معدو دراسة، وهم من معهد ماساتشوستس للتكنولوجيا، عن قلقهم من مخاطر رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات.


وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.
وبيّنت الدراسة، التي أجراها فريق باحثين ونشرت نتائجها مجلة "باترنز"، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتا.
رغم أن هذه الأمثلة قد تبدو تافهة، إلا أنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي.
وقال بارك إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها".
وأوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لتربية النباتات، حيث أن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.
- "مخادع" مثل البشر
فحص باحثون من معهد ماساتشوستس للتكنولوجيا ("ام اي تي") برنامج ذكاء اصطناعي قادر، من خلال الجمع بين خوارزميات للتعرف على اللغة الطبيعية وأخرى للاستراتيجية، على التغلب على البشر في اللعبة اللوحية Diplomacy ("دبلوماسي"). وقد حظي هذا الأداء بثناء الشركة الأم وتم تفصيله في مقال نُشر عام 2022 في مجلة "ساينس".
كان بيتر بارك يشكك في ظروف فوز هذا البرنامج، التي أكدت الشركة المطورة له أن البرنامج كان "صادقاً ومفيداً في الأساس"، وغير قادر على الغش أو الخداع.
ولكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.
على سبيل المثال، من خلال لعب دور فرنسا، خدع البرنامج إنكلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد، وعد البرنامج إنكلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنكلترا.
وفي تصريح صحفي، لم تنف الشركة المطورة للبرنامج المزاعم المتعلقة بقدرته على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة Diplomacy".
وأضافت الشركة أنها لا تنوي استخدام الخلاصات التي استنتجتها من البرنامج في منتجاتها.
- خطر تزوير الانتخابات
مع ذلك، تكشف الدراسة، التي أجراها بارك وفريقه، أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
في أحد الأمثلة الصارخة، تمكن برنامج "تشات جي بي تي - 4"، المطور من قبل شركة "أوبن إيه آي"، من خداع عامل مستقل جرى تعيينه على منصة "تاسك رابيت" TaskRabbit لإجراء اختبار "كابتشا" ("Captcha") الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتاً.
وعندما سأل الإنسان مازحا "تشات جي بي تي - 4" إذا كان حقا روبوتا، أجاب برنامج الذكاء الاصطناعي "لا، أنا لست روبوتا. لدي ضعف بصري يمنعني من رؤية الصور"، دافعا العامل لإجراء الاختبار.
في الختام، لأولئك الذين يتهمونه باعتماد نظرة كارثية بشأن خطورة الذكاء الاصطناعي على البشر في المستقبل، يرد بارك أن "السبب الوحيد للاعتقاد بأن الأمر ليس جدياً هو تصور أن قدرة الذكاء الاصطناعي على الخداع ستظل عند المستوى الحالي تقريباً".
ومع ذلك، يبدو هذا السيناريو غير مرجح، نظرا للسباق الشرس الذي يخوضه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.

أخبار ذات صلة «محمد بن زايد للذكاء الاصطناعي» تدرس حلولاً مبتكرة لمواجهة الظواهر الجوية جهاز «رنين» ذكي بـ 22 ألف دولار المصدر: آ ف ب

المصدر: صحيفة الاتحاد

كلمات دلالية: الذكاء الاصطناعي تشات جي بي تي خداع معهد ماساتشوستس للتکنولوجیا الذکاء الاصطناعی على من خلال

إقرأ أيضاً:

ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر

في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.

واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.

دعما لمبيعات أجهزتها.. ميتا تتوسع بمتاجر جديدةميتا تهدد بإغلاق فيسبوك وإنستجرام في أكبر دولة إفريقيةميتا تستبدل البشر بالذكاء الاصطناعي لتقييم الخصوصية والمخاطر
 

يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.

في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.

وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".

وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".

لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.

مخاوف من غياب الخبرة

تشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.

في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.

وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".

وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".

تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.

تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.

ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.

طباعة شارك ميتا مراجعات الخصوصية فيسبوك الذكاء الاصطناعي تطبيقات ميتا

مقالات مشابهة

  • المؤتمر: إتاحة كليات الذكاء الاصطناعي لخريجي التعليم الفني يحقق تكافؤ الفرص التعليمية
  • دعوة لإنشاء مركز سلامة الذكاء الاصطناعي.. حصاد أكاديمية البحث العلمي في 2024-2025
  • جامعة حلوان تنظم ندوة حول الميثاق الأخلاقي لاستخدام الذكاء الاصطناعي بالرياضة
  • تركيا.. نظام يعتمد الذكاء الاصطناعي لضبط سوق العقارات
  • الإمارات تعرض مبادرة مبتكرة في الذكاء الاصطناعي خلال كوسباس - سارسات
  • جامعة حلوان تنظم ندوة علمية عن الميثاق الأخلاقي لاستخدام الذكاء الاصطناعي في المجال الرياضي
  • السعودية تستخدم الذكاء الاصطناعي في إدارة الحشود وتفويج الحجاج
  • ماجستير يؤكد: استخدام الذكاء الاصطناعي يحسن من قدرة تذكر المراهقين للمعلومات
  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • الذكاء الإصطناعي يتجاوز البشر في التعلم