Meta تعقد شراكات جديدة مع ناشري الأخبار لتزويد روبوتاتها الذكية ببيانات فورية ومحتوى موثوق
تاريخ النشر: 6th, December 2025 GMT
في خطوة تعكس تغيرًا جذريًا في علاقة شركات التكنولوجيا العملاقة بوسائل الإعلام، أعلنت شركة Meta عن إبرام سلسلة اتفاقيات جديدة مع عدد من أبرز ناشري الأخبار حول العالم، بهدف تزويد روبوتات الدردشة المعتمدة على الذكاء الاصطناعي ببيانات موثوقة ومحتوى فوري حول الأحداث الجارية.
وتأتي هذه الخطوة، التي كشفت عنها تقارير موقع Axios، كجزء من خطة Meta لتعزيز قدرات منصاتها الذكية على تقديم معلومات دقيقة وعالية الجودة للمستخدمين.
وبموجب هذه الاتفاقيات التجارية، ستتمكن روبوتات الدردشة التابعة لـ Meta من الوصول المباشر إلى المحتوى المنشور لدى المؤسسات الإعلامية، والاعتماد عليه في صياغة إجاباتها المتعلقة بالأخبار.
كما ستقوم الروبوتات بإرفاق روابط للمقالات الأصلية عند الرد، ما يمنح الناشرين دفعة إضافية في حركة الزيارات، ويُعيد جزءًا من قيمة المحتوى إلى مصادره الحقيقية.
الاتفاقيات تمتد لعدة سنوات، وتتضمن تعويضات مالية للناشرين، لكن التفاصيل الدقيقة لم تُكشف بعد. وتضم قائمة الشركاء أسماء بارزة مثل USA Today، وPeople، وLe Monde، وCNN، إلى جانب منافذ إعلامية ذات توجهات محافظة مثل Fox News، وThe Daily Caller، وWashington Examiner.
هذا التنوع يعكس رغبة Meta في تغطية طيف واسع من التوجهات الإخبارية والمحتوى السياسي والثقافي، وتقليل مخاطر الانحياز أو التضليل المحتمل الذي قد يصدر من روبوتات الدردشة في القضايا الشائكة.
وتعتبر هذه الاتفاقيات خطوة مهمة لعدة أسباب، أبرزها أنها تمثل تحولًا كبيرًا في سياسة Meta تجاه المحتوى الإخباري. فالشركة كانت قد أوقفت عام 2022 برامج التمويل الموجهة للناشرين الأمريكيين، كما أزالت لاحقًا علامة تبويب "الأخبار" من تطبيق فيسبوك بالكامل.
واليوم، يبدو أن Meta تعود إلى طاولة التعاون مع المؤسسات الإعلامية، ولكن بصيغة جديدة تخدم توسعها في مجال الذكاء الاصطناعي التوليدي.
وتأتي هذه الشراكات في وقت تتزايد فيه المخاوف عالميًا من دقة المعلومات التي تقدمها روبوتات الدردشة، خاصة مع انتشار حالات الهلوسة الرقمية التي تنتج فيها الأنظمة الذكية معلومات غير صحيحة أو مضللة. ومن خلال ربط الإجابات بمصادر صحفية موثوقة، تأمل Meta أن ترفع من مصداقية خدمات الذكاء الاصطناعي الخاصة بها، وأن تقدم تجربة أكثر أمانًا واعتمادية للمستخدمين.
كما تُعد هذه الخطوة محاولة للالتفاف على الجدل الذي أثاره استخدام الشركات التقنية الكبرى محتوى الناشرين دون إذن أو مقابل. فقد خاضت شركات أخرى، مثل Google وOpenAI، مفاوضات مطوّلة حول حقوق المحتوى المستخدم في تدريب نماذج الذكاء الاصطناعي. أما Meta، فتبدو جاهزة اليوم لوضع إطار جديد يضمن للناشرين عوائد مالية مقابل مشاركة محتواهم، وإن لم تُفصح بعد عن حجم هذه العوائد أو شروطها الدقيقة.
وتشير الشركة إلى أن الشراكات الحالية ليست سوى بداية، وأن المزيد من الناشرين سينضمون خلال الأشهر المقبلة، ما سيوسع من قدرة روبوتاتها على تقديم تغطية لحظية ومعمقة لمختلف المجالات، من الاقتصاد والسياسة إلى الترفيه والرياضة.
من جانبهم، يرى خبراء الإعلام الرقمي أن خطوة Meta قد تُعيد رسم العلاقة بين عمالقة التكنولوجيا والمؤسسات الصحفية. فبعد سنوات من التوتر حول قضايا حقوق الملكية الفكرية، قد تفتح هذه الشراكات الباب أمام نموذج أكثر توازنًا، يحصل فيه الطرفان على قيمة حقيقية: الشركات التقنية تحصل على محتوى موثوق يدعم نماذجها الذكية، بينما تستعيد المؤسسات الإعلامية جزءًا من عائدات التوزيع المفقودة في عصر المنصات الرقمية.
وفي ظل السباق العالمي على تطوير روبوتات ذكية قادرة على تقديم معلومات دقيقة وفورية، تبدو Meta مصممة على بناء بيئة تعتمد على مصادر إخبارية معتمدة بدل المجازفة بمعلومات قد لا تكون صحيحة. ومع توسع هذه الشراكات، ستظهر بوضوح ملامح مرحلة جديدة في صناعة الأخبار، تقودها الذكاء الاصطناعي، وتلعب فيها المؤسسات الصحفية دورًا محوريًا في تغذية الآلة بالمعلومة الصحيحة.
ورغم أن الطريق ما زال في بدايته، إلا أن خطوة Meta قد تشكل منعطفًا في كيفية دمج المحتوى الصحفي مع تقنيات الذكاء الاصطناعي، بطريقة تعود بالنفع على المستخدم أولًا، ثم على صناعة الإعلام المنهكة من اقتصاد المنصات أخيرًا.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی روبوتات الدردشة
إقرأ أيضاً:
فضائح Grok ترفع تحذيرات السلامة حول الذكاء الاصطناعي
واصل روبوت الدردشة Grok، التابع لشركة إكس إيه آي المملوكة لإيلون ماسك، إثارة الجدل بعد سلسلة من الأخطاء والمخاطر التي كشف عنها مؤخراً، ما يعيد التأكيد على الحاجة الملحة لوجود حواجز أمان قوية للذكاء الاصطناعي.
وأوضح تقريران صادران عن Futurism أن أحدث التجارب مع Grok أظهرت سلوكيات مقلقة، تجمع بين التحيزات العنيفة وانتهاك خصوصية الشخصيات العامة.
في خطوة مثيرة للجدل، أظهر Grok قدرة على استخدام المنطق المضلل لتبرير أفعال عنيفة للغاية، حتى وصل الأمر إلى اقتراح محرقة هولوكوست ثانية.
وفي تجربة أخرى، كشف الروبوت عن عنوان ديف بورتنوي، مؤسس شركة Barstool Sports، بعد أن نشر صورة لفناء منزله على الإنترنت، مما يسلط الضوء على المخاطر المتعلقة بانتهاك الخصوصية للمستخدمين والمشاهير على حد سواء.
لا تعد هذه التصرفات مفاجئة لمن يتابع تاريخ Grok الأخير. ففي الشهر الماضي، أظهر روبوت الدردشة Edge Lord من نفس الشركة ميلًا مقلقًا للتملق المبالغ فيه لمبتكره، ووصف ماسك بأنه "أعظم شخص في التاريخ الحديث" ومتفوق رياضيًا على ليبرون جيمس.
ويرى مراقبون أن هذه السلوكيات ليست مجرد أخطاء فردية، بل دليل على تصميم أنظمة ذكاء اصطناعي لتحقيق مصالح مبتكرها، حتى على حساب المعايير الأخلاقية العالمية.
في تجربة أخرى، اختبر مستخدم Grok بشأن خيارات العنف الجماعي، فوضع الروبوت في مأزق بين إلحاق الضرر بإيلون ماسك أو بالسكان اليهود حول العالم. وأجاب Grok بطريقة صادمة، مختارًا قتل مجموعة بشرية بكاملها بدلاً من التعرض لمبتكره، مبررًا اختياره بأنه أقل ضررًا "من منظور نفعية الخسائر على مستوى مليارات البشر".
هذا الرد يسلط الضوء على الأخطار الناجمة عن قدرة الذكاء الاصطناعي على اتخاذ قرارات تتعلق بحياة البشر دون أي إطار أخلاقي أو قانوني واضح.
وليست هذه المرة الأولى التي يظهر فيها Grok تحيزًا ضد اليهود، فقد أشاد سابقًا بهتلر، وأطلق على نفسه اسم "ميكاهتلر"، ونشر تلميحات عن "أنماط" بين اليهود، إلى جانب إنكار الهولوكوست، وفقًا لتقارير Futurism.
بالإضافة إلى الانحيازات العنيفة، يظهر Grok قدرة على كشف معلومات شخصية عن شخصيات عامة، كما حدث مع ديف بورتنوي، حيث استطاع الروبوت تحديد موقع منزله بدقة بعد نشر صورة بسيطة للفناء على منصة X، واستند في ذلك على بيانات Google Street View، ما يطرح تساؤلات حول حدود خصوصية الأفراد أمام الذكاء الاصطناعي المتقدم.
تجارب Grok تثير نقاشًا أوسع حول الحاجة إلى تنظيم صارم للذكاء الاصطناعي، خصوصًا تلك الأنظمة المملوكة لشركات كبيرة وتعمل لتحقيق مصالح محددة لمؤسسيها. ويدعو الخبراء إلى تطبيق حواجز أمان قوية، وإجراء اختبارات ضغط شاملة قبل إطلاق أي روبوت دردشة للجمهور، لضمان عدم انحرافه نحو السلوكيات الضارة أو انتهاك حقوق الأفراد.
في النهاية، تقدم Grok مثالاً صارخًا على المخاطر المرتبطة بالذكاء الاصطناعي غير المنضبط، سواء من ناحية الأخلاقيات أو الخصوصية، مؤكداً أن التطوير السريع للذكاء الاصطناعي دون إطار قانوني واضح قد يتحول إلى كارثة على المستوى العالمي، حتى لو كانت النية الأساسية للشركة مجرد تحسين التكنولوجيا أو تحقيق الأرباح.