#سواليف

شارك نحو 600 ألف شخص بيانا عبر خاصية القصص على ” #إنستغرام ” يدعي أنه من خلال إعادة مشاركته سيتم حرمان “ميتا” من الحق في استخدام بياناتهم لتدريب نماذج #الذكاء_الاصطناعي.

ويقوم عدد متزايد من عمالقة التكنولوجيا بتعديل سياسات الخصوصية الخاصة بهم بمهارة حتى يتمكنوا من تدريب روبوتات الدردشة بالذكاء الاصطناعي والخدمات الأخرى بمعلومات المستخدم العامة، من بينهم “ميتا” التي تمتلك “فيسبوك و”إنستغرام” واللذان يضمان نحو 3 مليارات مستخدم.

ولكن الآن يزعم منشور انتشر بشكل واسع أنه يمكن للأشخاص إلغاء الاشتراك في هذا ببساطة عن طريق نسخ ولصق البيان ومشاركته عبر قصص “إنستغرام” الخاصة بهم.

مقالات ذات صلة عملية جراحية تاريخية “عابرة للقارات”.. 8 آلاف كلم تفصل بين الطبيب والمريض (فيديو) 2024/09/26

وينص البيان على: “وداعا الذكاء الاصطناعي لميتا (Meta AI). يرجى ملاحظة أن أحد المحامين نصحنا بنشر هذا، وقد يؤدي الفشل في القيام بذلك إلى عواقب قانونية. نظرا لأن ميتا هي الآن كيان عام، فيجب على جميع الأعضاء نشر بيان مماثل. وإذا لم تنشر مرة واحدة على الأقل، فسيتم افتراض أنك موافق على استخدامهم لمعلوماتك وصورك. لا أمنح ميتا أو أي شخص آخر إذنا باستخدام أي من بياناتي الشخصية أو معلومات ملف التعريف أو الصور الخاصة بي”.

وكان جوليان مور وسارة بولسون وجيمس ماكافوي من بين المشاهير الذين شاركوا المنشور حتى الآن.

وقام تطبيق “إنستغرام”، منذ انتشار المنشور خلال هذا الشهر بتحديده باعتباره معلومات كاذبة، ولا يتم عرضه الآن ويتم تشويشه، بحيث يحتاج الأشخاص إلى النقر فوق “عرض المنشور” لعرضه.

ويبدو أن المشاركة الكبيرة للمنشور جاءت استجابة لإعلان “ميتا” خلال هذا الصيف أنها ستستخدم المنشورات العامة على منصات التواصل الاجتماعي الخاصة بها للمساعدة في تدريب نموذج الذكاء الاصطناعي الذي تطوره، والمسمى LLaMa 3.

ومع ذلك، أكدت الشركة أنها ستحترم اعتراض أي مستخدم من خلال قيامه بتعديل إعدادات حساباته على “فيسبوك” و”إنستغرام”.

المصدر: سواليف

كلمات دلالية: سواليف إنستغرام الذكاء الاصطناعي

إقرأ أيضاً:

ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر

في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.

واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.

دعما لمبيعات أجهزتها.. ميتا تتوسع بمتاجر جديدةميتا تهدد بإغلاق فيسبوك وإنستجرام في أكبر دولة إفريقيةميتا تستبدل البشر بالذكاء الاصطناعي لتقييم الخصوصية والمخاطر
 

يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.

في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.

وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".

وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".

لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.

مخاوف من غياب الخبرة

تشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.

في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.

وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".

وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".

تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.

تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.

ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.

طباعة شارك ميتا مراجعات الخصوصية فيسبوك الذكاء الاصطناعي تطبيقات ميتا

مقالات مشابهة

  • “حرس الحدود” و”مكافحة المخدرات” بـ”جازان وعسير” تحبطان تهريب 120 كلجم من نبات القات المخدر و5149 قرصًا محظورًا تداوله
  • برلمانية: نحتاج معهد عالي للذكاء الاصطناعي
  • البعثة: تأثير الذكاء الاصطناعي على الديمقراطية والسياسة محور ورشة عمل عبر الانترنت
  • “رفيق” يطرح أداة مدعومة بالذكاء الاصطناعي ويعزز شراكته عالمياً في جيتكس أوروبا 2025
  • سامسونج قد تدمج تقنيات Perplexity للذكاء الاصطناعي في هواتفها المقبلة
  • “هيوماين” ومستقبل الذكاء الاصطناعي
  • ميتا تعتمد على الذكاء الاصطناعي لمراجعة مخاطر المنتجات وتقلص دور الخبراء
  • ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
  • الإمارات تطلق البرنامج التدريبي للرؤساء التنفيذيين للذكاء الاصطناعي
  • “غوغل” تقدم أداة لتحرير الصور بتقنيات الذكاء الاصطناعي