مقالات مشابهة «سباق القمة» يقدّم الانتخابات الأميركية من منظور مختلف

‏5 دقائق مضت

ما هي حقيقة تعديل سن التقاعد في العراق؟.. “مجلس النواب” يوضح

‏11 دقيقة مضت

استقبل الان.. تردد قناة وناسة لولو الجديد 2024 عبر القمر الصناعي نايل سات

‏16 دقيقة مضت

“الآنسي” يكشف عن أهم حدث في المنطقة خلال القرنين الأخيرين معاً

‏18 دقيقة مضت

“عبر منصة أبشر”.

.رابط التقديم علي وظائف وزارة الداخلية للكادر النسائي 1446 و أبرز شروط القبول

‏20 دقيقة مضت

القضاء العراقي يدخل على خط الجدل حول تعديل قانون «الأحوال الشخصية»

‏25 دقيقة مضت


أعلنت شركة «ميتا» عزمها البدء في تدريب نماذج الذكاء الاصطناعي الخاصة بها، معتمدة على بيانات مصدرها المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام»، الأمر الذي عدّه بعض الخبراء يجدد المخاوف بشأن «الخصوصية»، ولا سيما أن الشركة كانت قد واجهت اعتراضات سابقة في ما يخص مشروعها لتغذية نماذج الذكاء الاصطناعي، ما أدى إلى توقفه في يونيو (حزيران) الماضي.

«ميتا» كانت قد أصدرت إفادة في سبتمبر (أيلول) الحالي، لتوضيح آلية استخدام المنشورات العامة للمستخدمين على «فيسبوك» و«إنستغرام» اللتين تملكهما. وقالت إنها «تشمل الصور والمنشورات والتعليقات فقط، بهدف تغذية نماذج الذكاء الاصطناعي التوليدي». وشددت الشركة على أن المحتوى المستخدم لن يشمل الرسائل الخاصة أو أي بيانات صنّفها المستخدم تحت عبارة خاص أو محمي، كما لن تشارك أي معلومات من حسابات المستخدمين الذين تقل أعمارهم عن 18 سنة.

حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة «الشرق للأخبار» قال لـ«الشرق الأوسط» إنه يرى أن الخطوة تأتي في إطار سعي «ميتا» لتطوير تقنيات الذكاء الاصطناعي الخاصة بها. وأوضح أنها «خطوة في الاتجاه الصحيح؛ لكنها تصب في مصلحة (ميتا)، التي تسعى للبقاء منافساً قوياً في سوق التكنولوجيا المتقدمة». وأضاف: «(ميتا) هي الشركة الأضخم من حيث الاستحواذ على بيانات المستخدمين، وكانت منذ نشأتها الأكثر مرونة في التعاطي مع المتغيرات». وعدّ الشولي أن دخول الشركة في سوق الذكاء الاصطناعي أمر حتمي، موضحاً أن «(ميتا) تحمي نفسها من الشيخوخة، ولا سيما أن منصاتها التقليدية مثل (فيسبوك) بدأت تشهد تراجعاً في شعبيتها».

وعن تهديد مشروع «ميتا» لمبدأ الخصوصية، علّق الشولي بالقول إن «مسألة حماية البيانات قضية جدلية منذ ظهور منصات التواصل الاجتماعي، ولتحليل ما إذا كان مشروع (ميتا) يهدد الخصوصية أم لا، علينا أولاً التفريق بين نوعين من البيانات: الأول هي البيانات المحمية من قبل المستخدم، والثاني يخص البيانات المسموح بمشاركتها وفقاً لرغبة المستخدم أيضاً… وفي مشروع (ميتا) الذي نحن بصدده، أقرّت الشركة بأنها تعتمد على البيانات المعلنة فقط التي يوافق المستخدمون على مشاركتها، مثل العمر، النوع، الموقع الجغرافي، الاهتمامات».

مع هذا، أثار الشولي الحديث عن «أخلاقيات الذكاء الاصطناعي»، أو النماذج التي تعتمد عليها شركات التكنولوجيا المهيمنة على السوق لتدريب الذكاء الاصطناعي، وقال: «تنظيم أخلاقيات الذكاء الاصطناعي بات أكثر إلحاحاً من أكثر وقت مضى، وبالفعل اتجهت بعض الدول مثل الصين والولايات المتحدة ودول أوروبا في تشريع قوانين لحماية خصوصية المستخدمين». وشدّد «على أهمية وضع معايير واضحة ومهنية تنظم آلية استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، ووجوب الإشارة إلى أن المحتويات المصنوعة بالذكاء الاصطناعي اعتمدت على مصادر معينة، وذلك من شأنه تحقيق الشفافية، ما يُجنب وقوع أي عمليات تضليل».

للعلم، يأتي مشروع «ميتا» الجديد بعدما كانت قد أعلنت تأجيل إطلاق نماذج الذكاء الاصطناعي في أوروبا، منتصف يونيو (حزيران) الماضي، على خلفية بعض العقبات، من بينها طلب هيئة حماية الخصوصية الآيرلندية تأجيل خطة «ميتا» لاستخدام البيانات من منشورات وسائل التواصل الاجتماعي. ويومذاك أعلنت الشركة أن التوقف أيضاً سيسمح لها بتلبية طلبات «مكتب مفوضية المعلومات البريطاني» (ICO) في ما يخصّ التعليمات التنظيمية لاستخدام البيانات.

ثم إن «ميتا» واجهت في يونيو الماضي انتقادات عدة من قبل «المركز الأوروبي للحقوق الرقمية» (NOYB)، وهي منظمة غير ربحية، مقرّها في فيينا، دعت الهيئات الوطنية لحماية الخصوصية في جميع أنحاء أوروبا، وإلى وقف استخدام محتوى وسائل التواصل الاجتماعي لهذا الغرض. وبرّرت موقفها بالقول إن «الإشعارات التي تقدمها (ميتا) غير كافية لتلبية قواعد الاتحاد الأوروبي الصارمة المتعلقة بالخصوصية والشفافية»، وفقاً لما نقلته وكالة أنباء «رويترز».

من جهة ثانية، قال فادي رمزي، مستشار الإعلام الرقمي المصري والمحاضر في الجامعة الأميركية بالقاهرة، لـ«الشرق الأوسط»، إن تاريخ شركة «ميتا» المالكة لمنصتي «فيسبوك» و«إنستغرام» مليء بالثغرات في ما يخص حماية البيانات. وأضاف: «من قبل نماذج الذكاء الاصطناعي، وشركة ميتا تتعامل مع أي محتوى ينشره المستخدمون بشكل علني، باعتباره متاحاً للاستخدام بدليل البيانات التي تُوفَّر للمعلنين»، وتابع: «(ميتا) تقاعست عن تعزيز الشفافية على مدار السنوات الماضية، ما يعقد الوثوق فيها الآن… لقد واجهت (ميتا) مشاكل متكررة في التعامل مع بيانات المستخدمين، وسبق أن واجهت فضائح متعلقة بتسريب البيانات، مثل قضية كمبريدج أناليتيكا». وتعود قضية «كمبريدج أناليتيكا»، ومقرها لندن، إلى عام 2018 حين كُشف عن أن الشركة جمعت البيانات الشخصية لملايين الأشخاص مستخدمة حساباتهم على «فيسبوك»، وجرى استخدام هذه البيانات لأغراض الدعاية السياسية، ما اضطر «فيسبوك» لاحقاً لدفع 725 مليون دولار في إطار تسوية لدعوى قضائية جماعية تخص تلك القضية.

ووفق رمزي، فإن «حماية الخصوصية معضلة لن تحلها شركات التكنولوجيا، لا (ميتا) ولا غيرها… فحماية الخصوصية ميزة تتنافى مع مصالح شركات التكنولوجيا، ولا سيما ونحن أمام نماذج تتنافس في مجال الذكاء الاصطناعي التوليدي». وفي ما يخص مشروع «ميتا» الجديد، قال رمزي إن «النموذج الذي قدّمته الشركة لا يشير إلى أي إلزام بإبلاغ المستخدمين حول استخدام بياناتهم، وهو أمر يعود إلى غياب التشريعات في هذا الصدد». ورهن التزام الشركة بالمصداقية والأخلاقيات المهنية فيما يخص بيانات المستخدمين أو حقوق الناشرين، كذلك بالتشريعات الملزمة.


Source link ذات صلة

المصدر: الميدان اليمني

كلمات دلالية: نماذج الذکاء الاصطناعی حمایة الخصوصیة دقیقة مضت فی ما یخص

إقرأ أيضاً:

دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ

كشفت دراسة حديثة أجراها معهد ماساتشوستس للتكنولوجيا (MIT)، أن الاعتماد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT في مهام الكتابة يؤدي إلى تراجع ملحوظ في نشاط الدماغ والوظائف المعرفية، مقارنةً بمن يستخدمون محركات البحث أو يعتمدون على مهاراتهم الذاتية في الكتابة.

تفاصيل دراسة معهد ماساتشوستس للتكنولوجيا

أجرى باحثون من مختبر Media Lab التابع لمعهد ماساتشوستس للتكنولوجيا، دراسة استمرت لمدة تبلغ أربعة أشهر، قارنوا فيها بين ثلاث مجموعات من المشاركين في أثناء إنجاز مهام كتابية.

وأظهرت النتائج أن الأشخاص الذين استخدموا ChatGPT أتموا مهامهم الكتابية بسرعة تجاوزت غيرهم بنسبة قدرها 60%، لكن جاء ذلك على حساب الجهد العقلي المرتبط بفهم المعلومات وتنظيمها في الذاكرة الطويلة الأمد.فقد سجلوا انخفاضًا بنسبة قدرها 32% فيما يُعرف بـ (Germane Cognitive Load)، وهو مؤشر على مدى استيعاب الدماغ للمعلومات بنحو عميق وتنظيمها في الذاكرة الطويلة الأمد.

وأظهرت الدراسة أيضًا، أن المقالات التي كتبتها المجموعة التي استخدمت ChatGPT كانت متشابهة بنحو ملحوظ وافتقرت إلى الأصالة، كما عبّر المشاركون عن شعور ضعيف بالانتماء أو «الملكية» تجاه ما كتبوه.

chatgpt تدهور أداة الباحثون

ومع تكرار استخدام الأداة، لاحظ الباحثون تدهورًا تدريجيًا في الأداء، فقد أصبح المستخدمون يكتفون بنسخ النصوص المولدة دون مراجعة أو تفكير نقدي. واستمرت هذه التأثيرات السلبية حتى بعد التوقف عن استخدام الأداة، مما يشير إلى احتمالية حدوث تغيّرات دائمة في طريقة عمل الدماغ.

ومن المُتوقع أن تكون أدمغة الشباب، التي ما تزال في طور النمو، أكثر عرضة لهذه التأثيرات، مما يثير القلق من الانتشار الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية.

تغيّرات في الأنشطة العصبية في الدماغ

اعتمدت الدراسة على فحوصات التخطيط الكهربائي للدماغ «EEG» لرصد الأنشطة العصبية. وقد أظهرت النتائج أن المشاركين الذين كتبوا بالاعتماد على قدراتهم الذاتية كان لديهم اتصالات عصبية أكثر ترابطًا من غيرهم، إذ سُجل لديهم 79 اتصالًا عصبيًا في نطاق موجات ألفا المرتبطة بالتركيز والتفكير الإبداعي. وأما الذين استخدموا محركات البحث فحققوا مستوى أداء متوسط، وسجل مستخدمو ChatGPT أضعف أداء بلغ 42 اتصالًا فقط.

كما رُصد انخفاض مماثل في نطاق موجات «ثيتا» Theta، المرتبط بالذاكرة والتحكم التنفيذي، إذ بلغ عدد الاتصالات العصبية لدى المجموعة التي اعتمدت على مهاراتها الذاتية في الكتابة 65 اتصالًا، مقابل 29 اتصالًا عصبيًا فقط لدى مستخدمي ChatGPT. وتُشير هذه الفروقات إلى وجود علاقة عكسية بين الاعتماد على أدوات الذكاء الاصطناعي وبين انخراط الدماغ في معالجة المعلومات.

خلل في الذاكرة وتراجع القدرة على التذكر

من أكثر النتائج إثارة للقلق، أن ما نسبته 83% من مستخدمي ChatGPT لم يتمكنوا من تذكّر اقتباسات من مقالات كتبوها قبل دقائق فقط، وبلغت النسبة 11.1% فقط لدى من استخدموا محركات البحث أو كتبوا دون مساعدة. وعند مطالبتهم بإعادة كتابة المقال دون استخدام الذكاء الاصطناعي، عجزوا عن تذكر معظم المحتوى، مما يشير إلى ضعف معالجة المعلومات في الذاكرة الطويلة الأمد.

تأثيرات مستقبلية في التعليم

تثير نتائج هذه الدراسة تساؤلات جوهرية عن الخطر المرتبط بالاستخدام الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية، خاصة لدى الفئات العمرية الصغيرة التي ما تزال في طور تطوير قدراتها العقلية. وقد حذّرت الباحثة الرئيسية في الدراسة، Nataliya Kosmyna من أن الطلاب الذين يعتمدون على أدوات مثل ChatGPT قد يطوّرون أنماطًا معرفية مختلفة تؤثر في مهاراتهم الذهنية المستقبلية.

وتتوافق هذه النتائج مع دراسات أخرى تشير إلى أن الاستخدام المكثف للذكاء الاصطناعي قد يُساهم في زيادة الشعور بالوحدة وانخفاض الإبداع، حتى مع مساهمته في تحسين الإنتاجية.

اقرأ أيضاًالتكنولوجيا الرقمية والذكاء الاصطناعي يعيدان تشكيل مستقبل التعليم

«ميتا» تستثمر 14.3 مليار دولار في شركة الذكاء الاصطناعي «سكيل»

الذكاء الاصطناعي يزف بشرى سارة لـ الأهلي قبل مواجهة إنتر ميامي

مقالات مشابهة

  • أكاديمي: دقة اتخاذ القرار في الذكاء الاصطناعي تتجاوز 90%  
  • ميتا تتعاون مع أوكلي لإطلاق نظارات الذكاء الاصطناعي
  • ما كمية الطاقة التي يستهلكها الذكاء الاصطناعي لتقديم إجابة واحدة؟
  • هكذا سيهيمن الذكاء الاصطناعي على المهن بحلول 2027
  • كواليس القصف الامريكي لإيران… ماذا كانت مخاوف ترامب؟
  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • اشتداد المنافسة بين الموسيقيين ونماذج الذكاء الاصطناعي في عالم الموسيقى
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي