ميتا تحدّث تصنيف المحتوى المعدل بالذكاء الاصطناعي على منصاتها
تاريخ النشر: 15th, September 2024 GMT
أعلنت ميتا عن تحديث جديد لطريقة تصنيف المحتوى الذي تم تحريره أو معالجته باستخدام الذكاء الاصطناعي التوليدي على منصات Instagram وFacebook وThreads. بدلاً من عرض علامة "AI Info" مباشرة تحت اسم المستخدم، ستظهر الآن داخل قائمة في الزاوية اليمنى العليا من الصور ومقاطع الفيديو المعدلة. يمكن للمستخدمين النقر على القائمة لعرض تفاصيل عن التعديلات التي أُجريت باستخدام الذكاء الاصطناعي.
وتأتي هذه التغييرات بعد انتقادات للمبدعين والمصورين بشأن العلامة السابقة "Made with AI"، التي وُضعت بشكل خاطئ على صور حقيقية. تؤكد ميتا أن التحديثات تهدف إلى تقديم معلومات دقيقة حول مدى استخدام الذكاء الاصطناعي في تعديل المحتوى، سواء كان التعديل بسيطًا باستخدام أدوات مثل Photoshop أو تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي.
وتشير ميتا إلى أن هذه التغييرات ستبدأ في الظهور على المنصات بدءًا من الأسبوع المقبل، وستعتمد على "الإشارات المشتركة بين الصناعات" لتحديد المحتوى الذي تم تحريره أو إنشاؤه بواسطة الذكاء الاصطناعي. من بين هذه الأنظمة، نظام بيانات تعريف المحتوى من C2PA من Adobe، وعلامات مائية مثل SynthID من Google، التي تستخدمها للتحقق من المحتوى.
ومع ذلك، قد يؤدي إزالة العلامات تمامًا من الصور الحقيقية التي تم التلاعب بها إلى تحديات في تجنب التضليل، خاصة مع تزايد استخدام أدوات تحرير الذكاء الاصطناعي المتقدمة. تأتي هذه الخطوة من ميتا ضمن جهودها لتعزيز الشفافية وتقليل الفوضى المعلوماتية على منصاتها.
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
أعلنت شركة غوغل عن إطلاق ميزة مبتكرة تحت اسم «Search Live»، تتيح للمستخدمين إجراء محادثات صوتية مباشرة مع محرك البحث عبر «وضع الذكاء الاصطناعي» (AI Mode)، في خطوة تهدف إلى إعادة تعريف تجربة البحث التقليدية وتحويلها إلى تفاعل أكثر حيوية وسلاسة.
تجربة صوتية ذكية في متناول اليد
الميزة متوفرة حالياً لمستخدمي تطبيق غوغل على نظامي «أندرويد» و«iOS» داخل الولايات المتحدة، ضمن إطار تجربة «مختبرات غوغل» (Google Labs)، مع تركيز خاص على تلبية احتياجات المستخدمين الذين يفضلون التفاعل الصوتي أثناء التنقل أو أثناء أداء مهام متعددة دون التوقف عن استخدام أجهزتهم.
كيف تعمل «Search Live»؟
يبدأ المستخدم بالضغط على أيقونة «Live» أسفل شريط البحث، ومن ثم طرح أسئلته صوتياً، ليقوم نموذج الذكاء الاصطناعي بالرد فوراً وبشكل موجز، مع إمكانية متابعة الحوار بنفس السياق دون الحاجة لإعادة صياغة الأسئلة، مما يخلق تجربة تفاعلية مستمرة تشبه التحدث مع مساعد شخصي.
إلى جانب ذلك، تظهر على الشاشة روابط لمصادر موثوقة تمكن المستخدم من التعمق في الموضوع إذا رغب، وتتيح الميزة أيضاً تشغيل المحادثة في الخلفية، مما يسمح بمواصلة التصفح أو استخدام تطبيقات أخرى بحرية دون انقطاع في التواصل الصوتي.
مزايا تقنية متقدمة لتعزيز التفاعل
تعتمد «Search Live» على نسخة مخصصة من نموذج الذكاء الاصطناعي «جيميناي» (Gemini) من غوغل، والذي صُمم لتعزيز دقة وسلاسة التفاعل الصوتي، كما تستفيد الميزة من تقنية «تفرّع الاستعلامات» (Query Fan-out)، التي توسع نطاق النتائج لتشمل مزيجاً من الردود الآلية والبشرية، ما يعزز جودة وعمق المعلومات المقدمة.
آفاق مستقبلية لتجربة بحث متعددة الوسائط
رغم تركيز غوغل الحالي على التفاعل الصوتي، تلمح الشركة إلى خطط تطويرية مستقبلية تتضمن البحث عبر الكاميرا، ما سيوسع تجربة البحث ليشمل وسائط متعددة تمكّن المستخدم من التفاعل مع العالم المحيط بطريقة تشبه التفاعل البشري الطبيعي.
ماذا يعني هذا للمستقبل؟
تشكل «Search Live» خطوة مهمة في مسيرة غوغل لإعادة صياغة مفهوم البحث الإلكتروني، ما يفتح تساؤلات واسعة حول إمكانية أن يكون التفاعل الصوتي الذكي هو المستقبل الجديد للبحث الرقمي في عصر الذكاء الاصطناعي، حيث تصبح المحادثة المباشرة مع محرك البحث جزءاً من روتين الحياة اليومية للمستخدمين حول العالم.