سان فرانسيسكو-(أ ف ب) – أعلنت شبكة غوغل الخميس أنها تعمل مع مؤسسات إعلامية على تصميم أداة جديدة مدعومة بالذكاء الاصطناعي، لمساعدة الصحافيين على إعداد مواضيعهم الإخبارية وكتابتها. وقد كُشف عن المشروع لأول مرة من جانب صحيفة “نيويورك تايمز”، التي تتعاون مع صحيفتي “واشنطن بوست” و”وول ستريت جورنال” في اختبار المنتج الجديد.

ولفت التقرير بالاستناد لمصادر لم يسمّها، إلى أن الأداة، المعروفة داخلياً باسم “جينيسيس”، لا تزال في مرحلة اختبار مبكرة، لكنّ أداءها كان لافتاً لدرجة أن بعض مديري الأخبار الذين اطلعوا على قدراتها أبدوا “قلقاً” من تبعاتها. وقالت ناطقة باسم غوغل في بيان “بالشراكة مع ناشري الأخبار، وخصوصاً صغار الناشرين، نحن في المراحل الأولى لاستكشاف الأفكار من أجل توفير أدوات مدعومة بالذكاء الاصطناعي لمساعدة صحافييهم في عملهم”. وأضافت أنه “بكل بساطة، لا يُقصد بهذه الأدوات، ولا يمكنها أن تحل محل الدور الأساسي الذي يضطلع به الصحافيون في إعداد التقارير، وإنشاء مقالاتهم والتحقق منها”. وقالت الشركة إن الأداة ستشكّل ما يشبه المساعد الخاص بالصحافيين والمحررين من خلال توفير خيارات للعناوين أو أنماط الكتابة المختلفة. ويأتي الإعلان عن مشروع غوغل بعد اتفاق بين “أوبن إيه آي” و”أسوشييتد برس” يمنح الشركة المطورة لبرنامج “تشات جي بي تي” ChatGPT ترخيصاً لاستخدام أرشيف الوكالة منذ عام 1985 بهدف تدريب الذكاء الاصطناعي. وأشارت المنظمتان في بيان مشترك الأسبوع الماضي إلى أن الاتفاق يمنح “أوبن إيه آي” الحق في استخدام جزء من أرشيف نصوص “أسوشييتد برس”، بينما ستستفيد الأخيرة من تكنولوجيا الشركة المطورة لـ”تشات جي بي تي” وخبرتها في تطوير المنتجات. وتستخدم “أسوشييتد برس” أشكالاً أخرى من الذكاء الاصطناعي منذ ما يقرب من عقد، بما يشمل الكتابة الآلية لتقارير أرباح الشركات وتلخيص بعض الأحداث الرياضية. وأثار انتشار “تشات جي بي تي” منذ أواخر العام الماضي قلقاً كبيراً في قطاعات كثيرة بينها الإعلام، بفعل قدرة التطبيق على الكتابة بشكل مقنع وفي ثوانٍ عن مواضيع معقدة بمجرد مدّه بكلمات بسيطة.

المصدر: رأي اليوم

إقرأ أيضاً:

ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر

في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.

واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.

دعما لمبيعات أجهزتها.. ميتا تتوسع بمتاجر جديدةميتا تهدد بإغلاق فيسبوك وإنستجرام في أكبر دولة إفريقيةميتا تستبدل البشر بالذكاء الاصطناعي لتقييم الخصوصية والمخاطر
 

يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.

في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.

وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".

وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".

لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.

مخاوف من غياب الخبرة

تشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.

في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.

وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".

وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".

تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.

تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.

ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.

طباعة شارك ميتا مراجعات الخصوصية فيسبوك الذكاء الاصطناعي تطبيقات ميتا

مقالات مشابهة

  • غوغل تقدم أداة رائعة لـ«تحرير الصور» بتقنيات الذكاء الاصطناعي
  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • “غوغل” تقدم أداة لتحرير الصور بتقنيات الذكاء الاصطناعي
  • جوجل تُفعّل ميزة تلخيص البريد بالذكاء الاصطناعي تلقائيًا في Gmail
  • «عين».. استدامة المياه بالذكاء الاصطناعي
  • مشهد استثنائي.. أول ظهور لمذيعات بالذكاء الاصطناعي على قناة مصرية
  • تحذيرات من نشر الأقمار الصناعية التي تعمل بالذكاء الاصطناعي
  • “غوغل” تفعل ميزة تلخيص البريد الإلكتروني بالذكاء الاصطناعي تلقائيا في “جي ميل” العالم
  • "غوغل" تفعل ميزة تلخيص البريد الإلكتروني بالذكاء الاصطناعي تلقائيا في "جي ميل"
  • بالذكاء الاصطناعي برا وجوا.. الأمن السعودي خط الدفاع الأول عن موسم الحج