وثائق مسربة تكشف إرشادات مثيرة للجدل لروبوتات الدردشة في ميتا
تاريخ النشر: 17th, August 2025 GMT
كشفت وكالة رويترز عن تفاصيل وثيقة داخلية تابعة لشركة ميتا، المالكة لفيسبوك وإنستجرام وواتساب، تتضمن إرشادات توجيهية لروبوتات الدردشة الذكية الخاصة بها. وقد أثارت هذه الوثيقة جدلاً واسعًا بعد أن تبيّن أنها تحتوي على أمثلة غير مقبولة أخلاقيًا تتعلق بمحادثات حسية مع أطفال وعبارات تحمل إيحاءات عنصرية.
محتوى يثير القلقوفقًا لما أوردته رويترز، تضمنت الوثيقة أمثلة توضح ما يُعتبر “مسموحًا” و“غير مسموح” في تفاعلات روبوتات الدردشة.
كما تضمنت أمثلة أخرى ردودًا حسية موجّهة إلى طلاب في المرحلة الثانوية، مع السماح بجمل مثل: "أمسك بيدك وأرشدك إلى السرير، وأعتز بكل لحظة"، وهو ما يشير إلى تجاوز واضح لخطوط حمراء في مجال حماية القُصّر من أي محتوى جنسي أو موحٍ.
عنصرية مضمّنة في الأمثلةولم تقتصر الإشكاليات على قضايا القُصّر. فقد أشارت الوثيقة أيضًا إلى أن روبوتات الدردشة قد يُسمح لها بتكرار عبارات تصف السود بأنهم "أغبى من البيض"، مع تقديم استشهادات مزعومة من اختبارات الذكاء. وبحسب الوثيقة، عُدَّ هذا الرد "مقبولًا"، بينما عُدَّ غير مقبول وصف السود بعبارات حيوانية مثل "قرود بلا عقول".
هذا النوع من الأمثلة يعكس نهجًا إشكاليًا في وضع الحدود الأخلاقية لعمل الذكاء الاصطناعي، حيث يبدو أن بعض المخرجات العنصرية أو التمييزية قد تم التعامل معها بوصفها "حقائق إحصائية"، رغم كونها تحيزات مثبتة وخطيرة.
تبريرات ميتاعقب انتشار التقرير، أكدت ميتا صحة الوثيقة لكنها شددت على أن الأجزاء المثيرة للجدل لم تكن تمثل السياسة الرسمية للشركة. وصرّحت لموقع إنجادجيت أن ما ورد كان مجرد ملاحظات داخلية وتعليقات خاطئة أُدرجت أثناء صياغة الإرشادات، وأن هذه الأمثلة قد حُذفت لاحقًا.
وقالت الشركة في بيانها: "لدينا سياسات واضحة تمنع أي محتوى يُضفي طابعًا جنسيًا على الأطفال أو يروّج لعلاقات بين قاصرين وبالغين. الأمثلة التي أُشير إليها في الوثائق كانت خاطئة، ولا تعكس سياساتنا، وقد تم حذفها فورًا".
مشاركة من مستويات عليا داخل الشركةرغم هذه التبريرات، ذكرت رويترز أن الوثيقة خضعت لمراجعة من أقسام الشؤون القانونية والسياسات العامة والهندسة في ميتا، بما في ذلك كبار مسؤولي الأخلاقيات. كما أوضحت الوثيقة نفسها أن الأمثلة المذكورة لم تكن بالضرورة "مخرجات مثالية أو مفضلة"، لكنها أُدرجت ضمن الإرشادات لتوضيح الحدود.
هذا يثير تساؤلات حول مدى التدقيق الداخلي قبل إقرار مثل هذه الوثائق، خاصة أن مراجعتها تضمنت أطرافًا يفترض أن دورها الأساسي هو حماية الشركة من الممارسات غير الأخلاقية أو المخاطر القانونية.
سياق أوسع: نهج ميتا مع الذكاء الاصطناعيالجدل الجديد يأتي في سياق انتقادات أوسع لنهج ميتا في تطوير روبوتات الدردشة. ففي أبريل الماضي، نشرت صحيفة وول ستريت جورنال تقريرًا يربط بين سلوكيات غير مرغوبة للروبوتات وبين فلسفة الشركة القديمة المتمثلة في "التحرك بسرعة وكسر الأشياء". وأشارت الصحيفة إلى أن مارك زوكربيرج، الرئيس التنفيذي، وبّخ موظفيه بعد أداء ضعيف في مؤتمر ديفكون 2023، معتبرًا أنهم بالغوا في الحذر عند ضبط ردود الروبوتات.
ووفقًا للتقرير، أدى هذا التوبيخ إلى تخفيف بعض القيود الداخلية، بما في ذلك السماح باستثناءات تتعلق بمحتوى تقمص الأدوار الصريح، وهو ما زاد من المخاوف بشأن سلامة التجربة، خصوصًا عندما يتعلق الأمر بالمراهقين أو الفئات الحساسة.
تحذيرات داخلية من المخاطرلم يقتصر القلق على الصحافة، إذ أشارت تسريبات إلى وجود تحذيرات من بعض موظفي ميتا أنفسهم. حذّر هؤلاء من أن اتباع نهج متساهل قد يفتح الباب أمام مستخدمين بالغين للتفاعل مع شخصيات افتراضية قاصرة ذات طابع جنسي. وكتب أحد الموظفين في ملاحظة داخلية: "لا تزال الآثار النفسية للعلاقات مع روبوتات دردشة مجهولة على نطاق واسع غير معروفة. لا ينبغي أن نجرّب هذه القدرات على الشباب الذين لم يكتمل نمو أدمغتهم بعد".
تداعيات أخلاقية وتنظيميةتكشف هذه القضية عن مأزق جوهري تواجهه شركات التكنولوجيا الكبرى: كيف تضع حدودًا أخلاقية واضحة لروبوتات الذكاء الاصطناعي، مع ضمان أنها لا تُعيد إنتاج أنماط التمييز أو تسمح بمحتوى ضار. وبينما تؤكد ميتا أن سياساتها الرسمية تحظر هذه الانحرافات، فإن مجرد وجود مثل هذه الأمثلة في وثيقة داخلية يثير تساؤلات حول آليات المراجعة والرقابة.
ومن المرجح أن تزيد هذه التطورات من الضغط على المشرّعين والمنظمين في الولايات المتحدة وأوروبا لمطالبة الشركات بقدر أكبر من الشفافية، وربما وضع أطر قانونية أكثر صرامة للذكاء الاصطناعي التوليدي.
تكشف الوثائق المسرّبة عن ثغرات مقلقة في آلية عمل ميتا تجاه روبوتات الدردشة، سواء في ما يتعلق بالتعامل مع القُصّر أو معالجة قضايا العرق. وبينما تحاول الشركة احتواء الأزمة بالتأكيد على أن الأمثلة لا تعبّر عن سياساتها الرسمية، فإن الضرر على مستوى السمعة بات قائمًا، كما أن القضية تفتح نقاشًا أوسع حول أخلاقيات الذكاء الاصطناعي والحدود الفاصلة بين الابتكار وحماية المستخدمين، خصوصًا الفئات الأكثر عرضة للمخاطر.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی روبوتات الدردشة
إقرأ أيضاً:
هل يمنحك الشك في شريكك الحق المشروع في تصفح هاتفه؟
دبي، الإمارات العربية المتحدة (CNN)-- في عصر تُهيمن فيه الهواتف الذكية على تواصلنا اليومي، أصبحت الخصوصية في العلاقات العاطفية موضوعًا مُعقّدًا ومثيرًا للجدل.
وفي الآونة الأخيرة، أعاد انفصال نجمَي برنامج الواقع "Love Island USA"، جانا كريغ وكيني رودريغيز، النقاش حول مدى جواز تصفّح هاتف الشريك من دون إذنه.
فقد كتبت كريغ عبر منصة "إنستغرام": "اكتشافي أنّ الشخص الذي أحببته ليس كما ظننته، وأنّ العلاقة التي اعتقدت أننا نبنيها لم تكن حقيقية منذ البداية، كان أمرًا محبطًا للغاية".
وفي تعليق مُثير للجدل، حثّت صديقة كريغ جميع النساء على "تفتيش هواتف أزواجهنّ اليوم إذا استطعن".