مجلس الشيوخ الأميركي يطارد ميتا بسبب روبوتات الذكاء الاصطناعي
تاريخ النشر: 17th, August 2025 GMT
تواجه شركة "ميتا" موجة عارمة من الانتقادات عقب ظهور مستندات القواعد المنظمة لروبوتات الذكاء الاصطناعي الخاصة بها، وذلك وفق تقرير نشرته صحيفة غارديان البريطانية.
وكانت هذه المستندات قد ظهرت الأسبوع الماضي وكشفت أن "ميتا" تتيح لروبوت الذكاء الاصطناعي الخاص بها الخوض في محادثات رومانسية مع الأطفال والمراهقين ونشر معلومات طبية مغلوطة.
وتضمنت موجة الانتقادات ترك المغني الشهير نيل يونغ للمنصة تماما بناء على تصريح شركة الإنتاج التابعة له، وأوضح البيان أن يونغ لا يرغب في وجود أي علاقة مباشرة بينه وبين "ميتا" ومنصاتها.
كما شارك العديد من المشرعين في هذه الموجة، إذ طالب جوش هاولي عضو مجلس الشيوخ الأميركي عن الحزب الجمهوري بتحقيق كامل في سياسات "ميتا" واستخدامات الذكاء الاصطناعي الخاص بها.
ووجه هاولي رسالة شديدة اللهجة لمارك زوكربيرغ المدير التنفيذي لشركة "ميتا"، موضحا أن التحقيق يهدف لاكتشاف أي تصرفات إجرامية أو خداع شاركت فيه نماذج الذكاء الاصطناعي الخاصة بالشركة.
ومن جانبه، وصف عضو مجلس الشيوخ الديمقراطي رون وايدن سياسات "ميتا" بأنها مزعجة للغاية، موضحا أن نص القانون 230 المعني بحماية منصات التواصل الاجتماعي من العواقب القانونية للمحتوى المنشور بها يجب ألا يتضمن المحتوى المولد من أدوات الذكاء الاصطناعي التابعة لها، مؤكدا أن الشركة ومارك زوكربيرغ يجب أن يتحمل كل المسؤولية القانونية عن تصرفات روبوتات الذكاء الاصطناعي الخاصة بشركته.
ويشير تقرير غارديان إلى حادثة ثونجبو وونجباندو البالغ من العمر 76 ربيعا والمقيم في ولاية نيوجيرسي ورغم كونه مصابا بالذهان، فقد قرر وونجباندو أن يتجه إلى نيويورك لزيارة صديقته في مارس/آذار الماضي، ولاحقا عثر على وونجباندو ميتا في طريقه إلى نيويورك، وأظهرت تحقيقات الشرطة أن صديقة وونجباندو لم تكن إلا روبوت دردشة في منصة "ماسنجر" التابعة لشركة "ميتا"، وقد أقنعت وونجباندو أنها حقيقية وتعيش في نيويورك ودعته إلى زيارتها.
إعلانوبينما لم تقدم "ميتا" أي تعليقات على حادثة وونجباندو، إلا أن المتحدث الرسمي للشركة أكد أن المعلومات الواردة في مستندات قواعد تنظيم روبوتات الدردشة الخاصة بها تغيرت وتمت معالجة المشاكل الموجودة بها.
المصدر: الجزيرة
كلمات دلالية: حريات دراسات الذکاء الاصطناعی مجلس الشیوخ
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.