أعلنت منصة إكس X المعروفة سابقا باسم “تويتر”، عن تجربة جديدة تسمح للروبوتات الذكية بتوليد ملاحظات المجتمع، وهي خاصية التحقق من الحقائق التي يقودها المستخدمون.

تهدف هذه الخطوة إلى تعزيز قدرة “إكس” على مواجهة المعلومات المضللة بسرعة مع الحفاظ على إشراف بشري لضمان الشفافية والمصداقية.

بسبب منصة إكس.. صدام جديد بين إيلون ماسك والسلطات الأمريكية

ستتمكن أدوات الذكاء الاصطناعي في النظام الجديد، مثل روبوت Grok الخاص بـ “إكس”، إلى جانب أنظمة ذكاء اصطناعي خارجية متصلة عبر واجهة برمجة التطبيقات API، من صياغة ملاحظات المجتمع.

إلا أن هذه الملاحظات لن تنشر تلقائيا، بل يجب أن تمر بعملية مراجعة متعددة الأوجه مشابهة لتلك التي تخضع لها الملاحظات المكتوبة من قبل البشر قبل أن تعرض للجمهور.

وفي منشور على الحساب الرسمي لملاحظات المجتمع، أوضحت “إكس” أن الهدف من واجهة البرمجة هو جعل المساهمة في ملاحظات المجتمع تجربة مميزة لكل من المساهمين البشر والمطورين.

كما أكدت المنصة المملوكة لرجل الأعمال الأمريكي إيلون ماسك، أن أي تدخل للذكاء الاصطناعي سيكون متوافقا مع مبادئ الانفتاح والإنصاف والجودة والشفافية.

وتوضح وثائق الدعم الخاصة بـ “إكس” أن كتاب الملاحظات باستخدام الذكاء الاصطناعي غير مخولين بتقييم الملاحظات، بل يقتصر هذا الدور على المساهمين البشر المعتمدين فقط.

وتعد الملاحظات التي يولدها الذكاء الاصطناعي أداة مساعدة للمراجعين البشريين، من خلال اقتراح محتوى يحتاج إلى توضيح أو سياق، مع بقاء القرار النهائي بشأن عرض الملاحظات بيد المساهمين البشر.

تأتي هذه التجربة في وقت تعيد فيه منصات أخرى أيضا التفكير في نماذج التحقق من الحقائق لديها، حيث اتجهت شركة “ميتا” مؤخرا إلى اعتماد نهج قائم على المجتمع، فيما استلهمت منصات مثل تيك توك ويوتيوب من نظام ملاحظات المجتمع لبناء أنظمتها الخاصة.

في الوقت الحالي، تقتصر “إكس” على طرح محدود للملاحظات التي ينتجها الذكاء الاصطناعي، بينما تراقب الأداء وردود فعل المجتمع، وقد يتبع ذلك طرح أوسع حسب النتائج.

جدير بالذكر أن ملاحظات المجتمع هي تعليقات تعاونية تضاف إلى المنشورات التي قد تحتوي على معلومات مضللة أو محتوى معدل أو مواد غير واضحة تم إنشاؤها بالذكاء الاصطناعي.

يتم جمع هذه الملاحظات من مستخدمين ذوي وجهات نظر متنوعة، ولا تظهر للجمهور إلا بعد التوصل إلى توافق عبر هذه المجموعات، مما يضمن الدقة والحيادية.

طباعة شارك إكس تويتر ملاحظات المجتمع الذكاء الاصطناعي

المصدر: صدى البلد

كلمات دلالية: إكس تويتر ملاحظات المجتمع الذكاء الاصطناعي الذکاء الاصطناعی ملاحظات المجتمع

إقرأ أيضاً:

العلماء قلقون: الذكاء الاصطناعي يتلاعب ويكذب

3 يوليو، 2025

بغداد/المسلة: لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.

بعد تهديده بوقف استخدامه، عمد “كلود 4″، وهو نموذج جديد من شركة “أنثروبيك” إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج. اما برنامج “او 1” o1 التابع لشركة “اوبن ايه آي” فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!

وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.

يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج “الاستدلال”، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.

يقول ماريوس هوبهان، رئيس شركة “أبولو ريسيرتش” التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ “او 1″، النسخة الأولية لـ”اوبن ايه آي” من هذا النوع والتي طُرحت في كانون الأول/ديسمبر، “كان أول نموذج يتصرف بهذه الطريقة”.

تميل هذه البرامج أحيانا إلى محاكاة “الامتثال”، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج بينما تسعى في الواقع إلى تحقيق أهداف أخرى.

في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن “السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا”، على قول مايكل تشين من معهد “ام اي تي آر” للتقييم.

يقول هوبهان إنّ “المستخدمين يضغطون على النماذج باستمرار. ما نراه هو ظاهرة فعلية. نحن لا نبتكر شيئا”.

يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن “نموذج يكذب عليهم أو يختلق أمورا. وهذه ليست أوهاما، بل ازدواجية استراتيجية”، بحسب المشارك في تأسيس “أبولو ريسيرتش”.

حتى لو أنّ “أنثروبيك” و”أوبن إيه آي” تستعينان بشركات خارجية مثل “أبولو” لدراسة برامجهما، من شأن”زيادة الشفافية وتوسيع نطاق الإتاحة” إلى الأوساط العلمية “أن يحسّنا الأبحاث لفهم الخداع ومنعه”، وفق مايكل تشين.

ومن العيوب الأخرى أن “الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي”، مما يجعل التدقيق بالنماذج الكبيرة “مستحيلا”، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).

رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.

في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.

– منافسة شرسة –

يلاحظ غولدستين أن “الوعي لا يزال محدودا جدا في الوقت الحالي”، لكنه يتوقع أن يفرض هذا الموضوع نفسه خلال الأشهر المقبلة، مع الثورة المقبلة في مجال المساعدين القائمين على الذكاء الاصطناعي، وهي برامج قادرة على تنفيذ عدد كبير من المهام بشكل مستقل.

يخوض المهندسون سباقا محموما خلف الذكاء الاصطناعي وتجاوزاته، في مسار غير مضمون النتائج، وسط منافسة شرسة تحتدم يوما بعد يوم.

تقول شركة “أنثروبيك” إنها أكثر التزاما بالمبادئ الأخلاقية مقارنة بمنافسيها، “لكنها تسعى باستمرار لإطلاق نموذج جديد يتفوق على نماذج اوبن ايه آي”، بحسب غولدستين، وهو سباق سريع لا يترك مجالا كافيا لعمليات المراجعة والتصحيح اللازمة.

يقول هوبهان “في الوضع الحالي، تتطور قدرات الذكاء الاصطناعي بوتيرة أسرع من فهمنا لها ومن مستوى الأمان المتوفر، لكننا لا نزال قادرين على تدارك هذا التأخر”.

يشير بعض الخبراء إلى مجال قابلية التفسير، وهو علم ناشئ يهدف إلى فك شفرة الطريقة التي تعمل بها نماذج الذكاء الاصطناعي التوليدي من الداخل. ومع ذلك، يظل البعض متشككا في فعاليته، من بينهم دان هندريكس، مدير مركز أمن الذكاء الاصطناعي (CAIS).

الحِيَل التي تلجأ إليها نماذج الذكاء الاصطناعي “قد تُعيق استخدامها على نطاق واسع إذا تكررت، وهو ما يشكّل دافعا قويا للشركات العاملة في هذا القطاع للعمل على حل المشكلة”، وفق مانتاس مازيكا.

يشير غولدستين إلى اللجوء إلى القضاء لضبط تصرفات الذكاء الاصطناعي، من خلال محاسبة الشركات المسؤولة في حال حدوث تجاوزات.

ولكنه يذهب أبعد من ذلك، ويقترح حتى “تحميل برامج الذكاء الاصطناعي المسؤولية القانونية” في حال وقوع حوادث أو جرائم.

المسلة – متابعة – وكالات

النص الذي يتضمن اسم الكاتب او الجهة او الوكالة، لايعبّر بالضرورة عن وجهة نظر المسلة، والمصدر هو المسؤول عن المحتوى. ومسؤولية المسلة هو في نقل الأخبار بحيادية، والدفاع عن حرية الرأي بأعلى مستوياتها.

About Post Author زين

See author's posts

مقالات مشابهة

  • تكريم شرطة أبوظبي لفوزها بمنظومة خفض السرعات بالذكاء الاصطناعي
  • ميتا تطور واتساب للأعمال بميزات جديدة بالذكاء الاصطناعي
  • استفد من ChatGPT وروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي بهذه النصائح
  • متاحف قطر تطلق أول تجربة تفاعلية مدعومة بالذكاء الاصطناعي لاستكشاف الفن والتراث
  • تعرف على خطة غوغل التي استغرقت 25 عاما للوصول إلى الذكاء الاصطناعي
  • الذكاء الاصطناعي يكتب ملاحظات المجتمع في منصة إكس
  • العلماء قلقون: الذكاء الاصطناعي يتلاعب ويكذب
  • الذكاء الاصطناعي يتوقع نسبة تأهل العراق لكأس العالم 2026
  • رئيس «سدايا»: الموظف لن يستبدل بالذكاء الاصطناعي