"ميتا" ستستخدم منشوراتكم العامة لتدريب نسختها الخاصة للذكاء الاصطناعي .. هل بامكانكم منع ذلك؟
تاريخ النشر: 31st, May 2024 GMT
ستستخدم الشركة الأم لفيسبوك وإنستغرام قريباً المنشورات العامة "للمساعدة في تطوير وتحسين الذكاء الاصطناعي".
ظهر إشعار جديد لمستخدمي تطبيقات إنستغرام وفيسبوك المحمولة في أوروبا في شهر آيار/مايو، يُبلغهم أنه من الممكن استخدام منشوراتهم العامة لتدريب الذكاء الاصطناعي الخاص بها، اعتباراً من 26 حزيران/ يونيو.
وأفاد مركز المساعدة في إنستغرام إن المعلومات المستخدمة قد تشمل المنشورات والصور والتعليقات التوضيحية والرسائل المرسلة إلى الذكاء الاصطناعي ولكن ليس محتوى الرسائل الخاصة.
وقالت الشركة الأم "ميتا"، في بيان الأسبوع الماضي إنها ستبدأ في إشعار المستخدمين في المملكة المتحدة والاتحاد الأوروبي حول كيفية استخدامهم "للمعلومات العامة التي شاركوها حول منتجات وخدمات "ميتا"، لتطوير وتحسين الذكاء الاصطناعي الخاص بها ضمن قوانين الخصوصية الخاصة بكل منهما".
هل يتطابق هذا مع النظام الأوروبي العام لحماية البيانات؟
وفقاً للوائح حماية البيانات العامة، يمكن للشركة أو المنظمة معالجة البيانات الشخصية عندما يكون لديها أسباب "مصلحة مشروعة".
وذكرت "ميتا" هذا الأساس القانوني، مضيفة أن البيانات ستُستخدم "لتطوير وتحسين الذكاء الاصطناعي".
وسيكون من الممكن إلغاء الاشتراك في استخدام بياناتكم بهذه الطريقة من خلال تقديم نموذج إلى فيسبوك، وهو غير متاح حالياً، أو إنستغرام.
وجاء في الإشعار:"سنراجع طلبات الاعتراض وفقاً لقوانين حماية البيانات ذات الصلة. إذا تم قبول طلبكم، فسيتم تطبيقه في المستقبل".
لكن، على الرغم من إمكانية إلغاء الاشتراك، لا يزال من الممكن استخدام بياناتكم بواسطة "ميتا"، إذا ظهرت في صورة شاركها شخص ما أو تم ذكركم في منشورات أو تعليقات مستخدم آخر.
تغريم "ميتا" 390 مليون يورو لانتهاكها القانون الأوروبي حول حماية البيانات الشخصيةوقالت لجنة حماية البيانات الأيرلندية لـ Euronews Next إن "ميتا"، أرجأت إطلاق هذا الاستخدام بعد عدد من الاستفسارات من لجنة حماية البيانات والتي تمت معالجتها".
وأبلغت شركة التكنولوجيا لجنة حماية البيانات بأن "البيانات الشخصية (المشاركات وليس التعليقات) التي يشاركها المستخدمون المقيمون في الاتحاد الأوروبي مع الجمهور العام على فيسبوك وإنستغرام خلال فنرة التدريب فقط، هي التي سيتم استخدامها وأن هذا لن يشمل البيانات الشخصية من الحسابات التي تنتمي إلى مستخدمين تقل أعمارهم عن 18 عاماً".
وذكرت "ميتا" في بيان صحفي صدر الشهر الماضي، إنها تستثمر "بقوة" لدعم جهود البحث والتطوير في مجال الذكاء الاصطناعي.
وتمتلك الشركة نموذج لغة كبير خاص بها (LLM) يسمى (Llama)، والذي تم إصدار أحدث إصدار منه (Llama 3) في نيسان/ أبريل ويستخدم لتشغيل مساعدها (Meta AI) الذي لم يتوفر في أوروبا بعد.
بعد توقف دام ساعات.. عودة تطبيقات ميتا للعمل وإيلون ماسك يعلق ساخرا المفوضية الأوروبية تحقق بامتثال آبل وميتا وغوغل بقانون الأسواق الرقمية الأوروبيةميتا وتيك توك ترفعان دعوى قضائية ضد الاتحاد الأوروبيووفقًا لرويترز، استخدمت "ميتا" بالفعل منشورات فيسبوك وإنستغرام، من الملفات الشخصية العامة، لتدريب المساعد.
ومع ذلك، لم يتم تضمين هذه المعلومات في مجموعة البيانات التي غذت (Llama 2).
شارك هذا المقالمحادثة مواضيع إضافية ألمانيا: إصابة عدة أشخاص في هجوم بالسكين في مدينة مانهايم جنوب غرب البلاد بسبب الحرب المستمرة على غزة: جامعة غنت البلجيكية تقرر قطع العلاقات الأكاديمية مع إسرائيل فيديو: الأسد يلتقي خامنئي في إيران لتقديم العزاء في وفاة إبراهيم رئيسي خصوصية البيانات حماية البيانات الذكاء الاصطناعي وسائل التواصل الاجتماعي إنستغرام ميتا - فيسبوكالمصدر: euronews
كلمات دلالية: غزة حركة حماس فلسطين إسرائيل الصراع الإسرائيلي الفلسطيني غزة حركة حماس فلسطين إسرائيل الصراع الإسرائيلي الفلسطيني خصوصية البيانات حماية البيانات الذكاء الاصطناعي وسائل التواصل الاجتماعي إنستغرام ميتا فيسبوك غزة حركة حماس فلسطين إسرائيل الصراع الإسرائيلي الفلسطيني احتجاجات أسلحة مخيم جباليا ألمانيا بنيامين نتنياهو الحرب في أوكرانيا السياسة الأوروبية البیانات الشخصیة الذکاء الاصطناعی حمایة البیانات یعرض الآن Next
إقرأ أيضاً:
احذر فخ الذكاء الاصطناعي: مشهد وهمي بتقنية Veo 3 يثير الجدل
الرياض
أثار مقطع فيديو تم إنشاؤه عبر تقنية Veo 3 للذكاء الاصطناعي جدلًا واسعًا على منصات التواصل الاجتماعي، بعدما ظن كثيرون أنه يصور مشهدًا حقيقيًا لفتاة من الواقع، قبل أن يتبين لاحقًا أنه مجرد إنتاج رقمي دقيق لا علاقة له بالحقيقة.
المقطع، الذي نشره أحد الحسابات المهتمة بالتقنيات الحديثة، صور فتاة تتحرك في مشهد طبيعي للغاية من حيث الإضاءة، وتفاصيل الوجه، ولغة الجسد، ما دفع بعض المتابعين لمحاولة البحث عنها والتفاعل معها على أساس أنها شخصية حقيقية، دون إدراك أنها من صنع خوارزميات.
الفيديو أعاد تسليط الضوء على التحديات الأخلاقية والمخاطر المحتملة المرتبطة بتطور أدوات الذكاء الاصطناعي، خاصة في قدرتها على خلق محتوى واقعي بالكامل لأشخاص لا وجود لهم، مما يفتح الباب أمام الاستخدامات الخاطئة مثل التضليل، الابتزاز، أو التلاعب بالمعلومات.
ومن جهتهم، شدد خبراء التقنية على ضرورة التحقق من مصادر المحتوى قبل تصديقه أو تداوله، داعين إلى تعزيز الوعي الرقمي بين المستخدمين في ظل تسارع تطور أدوات إنشاء الصور والفيديوهات الذكية.
كما علق أحد المتخصصين قائلًا: “في عصر الذكاء الاصطناعي، لم يعد كل ما تراه عينك حقيقة، كن واعيًا ولا تقع في الفخ”.
https://cp.slaati.com//wp-content/uploads/2025/06/oZfq2Hzr0o1X6UDr.mp4