بعد عام من تحقيق الجزيرة.. دعوى في النمسا ضد شات جي بي تي العاجز عن تصحيح أخطائه
تاريخ النشر: 29th, April 2024 GMT
أعلنت جمعية "نويب" النمساوية التي تدافع عن حماية الخصوصية، اليوم الاثنين، أنها رفعت دعوى في النمسا ضد برنامج الذكاء الاصطناعي الشهير "شات جي بي تي"، بحسب ما أوردته وكالة الأنباء الفرنسية.
وأكدت الجمعية التي يتألف اسمها من الحروف الأولى لكلمات "نَن أوف يور بيزنس" أي "ليس من شأنك" بالإنجليزية، أنّ هذه الأداة "تختلق الأجوبة".
فعلى سبيل المثال، طُرح على "شات جي بي تي" سؤال عن تاريخ ميلاد مؤسس الجمعية ماكس شريمه، فعرض البرنامج "معلومات مضللة" بدل الإفادة بأنه لا يعرف هذه الإجابة.
ونقل البيان عن المحامية مارتييه دي غراف قولها "إذا لم يتمكّن برنامج ما من عرض نتائج صحيحة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد"، مضيفة "على التكنولوجيا أن تمتثل للقانون لا العكس".
وأكدت "نويب" أنّ أداء البرنامج هو "ببساطة غير مقبول"، مذكّرةً بأنّ القانون الأوروبي لحماية البيانات (GDPR) يشترط توافر الدقة في الأدوات التكنولوجية.
وبما أنّ شركة "أوبن إيه آي" "رفضت طلب الجهة المدعية تصحيح الخطأ أو محوَه"، مؤكدة أن ذلك مستحيل، اتضّح أنّ نسيان الذكاء الاصطناعي ما تعلّمه يمثل في الواقع مشكلة أساسية.
ولم تستجب الشركة لطلب "نويب" الحصول على البيانات المتعلقة بها ومصادر المعلومات، مما يشكل هنا أيضا انتهاكا للقانون.
وفي الدعوى، طلبت "نويب" من هيئة حماية البيانات النمساوية فتح تحقيق وفرض غرامة على شركة "أوبن إيه آي".
قبل أكثر من عام قام فريق صفحة تكنولوجيا في موقع الجزيرة بعمل تحقيق حول اختلاق "شات جي بي تي" روابط مزيفة ادعى البرنامج أنه استخدمها كمصادر لتوليد مقال خاص.
وذكر التقرير حينها أن برنامج الذكاء الاصطناعي لم يكتفِ بتوليد روابط مزيفة بل أنكر أن هذه الروابط كانت مختلقة وأنها ليست روابط حقيقية.
قام الموقع بالتواصل مع موقع "أوبن إيه آي" حول هذه الحادثة، ولكن لم تتلق الجزيرة ردا على أسئلتها التي شملت:
– ما المصادر التي اعتمد عليها "شات جي بي تي" في كتابة المقال، ومن يقوم بمراجعة هذه المصادر، وكيف يتم التحقق من صحتها؟
ما الآلية المتبعة في إظهار المصادر؟ وكيف استطاع الروبوت توليد مصادر مزيفة؟تقنيا هذا يخضع لخوارزمية معينة؛ فهو يتعامل مع المصدر على أنه معلومة متغيرة يمكنه توليدها والتلاعب بها بناء على تعليمات معينة، وليس بوصفه ثابتا، عليه فقط أن يقوم بتدقيقه والتحقق منه.
كيف يقوم الروبوت بتوليد إجابات تقوم على التنصل من المسؤولية في توليد الروابط عند سؤاله بشكل مباشر حولها، وكيف يقوم بتوليد إجابات ترجع السبب إلى تغيير سياسات النشر أو حذف المواد من الموقع؟هذه الآلية في الإجابة مخيفة؛ فالأولى أن يكون شفافا ويقول بشكل واضح إنه لا يمتلك مصادر وإن الروابط هذه عبارة عن معلومات معالجة بناء على خوارزمية داخلية!
ما الآلية التي يعمل بها النظام في التقصي والإجابة عن أسئلة المستخدمين؟ فهو -رغم أنه قاصر بشكل واضح في إعطاء إجابة حول كيف أن كل هذه الروابط لا تعمل- مصرّ على أن الخطأ ليس من قبله.تذكر شركات تطوير الذكاء الاصطناعي أنه حتى الآن لا يمكن الاعتماد على المواد المولدة بواسطة الذكاء الاصطناعي بشكل كبير، وأن "الهلوسات" هي حتى الآن موجودة في هذه التكنولوجيا، لكن وكما ذكرت دي غراف "إذا لم يتمكّن برنامج ما من عرض نتائج صحيحة وشفافة، فلا يمكن استخدامه لتوليد بيانات عن الأفراد".
المصدر: الجزيرة
كلمات دلالية: ترجمات حريات الذکاء الاصطناعی شات جی بی تی أوبن إیه آی
إقرأ أيضاً:
دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
كشفت دراسة حديثة أجراها معهد ماساتشوستس للتكنولوجيا (MIT)، أن الاعتماد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT في مهام الكتابة يؤدي إلى تراجع ملحوظ في نشاط الدماغ والوظائف المعرفية، مقارنةً بمن يستخدمون محركات البحث أو يعتمدون على مهاراتهم الذاتية في الكتابة.
تفاصيل دراسة معهد ماساتشوستس للتكنولوجياأجرى باحثون من مختبر Media Lab التابع لمعهد ماساتشوستس للتكنولوجيا، دراسة استمرت لمدة تبلغ أربعة أشهر، قارنوا فيها بين ثلاث مجموعات من المشاركين في أثناء إنجاز مهام كتابية.
وأظهرت النتائج أن الأشخاص الذين استخدموا ChatGPT أتموا مهامهم الكتابية بسرعة تجاوزت غيرهم بنسبة قدرها 60%، لكن جاء ذلك على حساب الجهد العقلي المرتبط بفهم المعلومات وتنظيمها في الذاكرة الطويلة الأمد.فقد سجلوا انخفاضًا بنسبة قدرها 32% فيما يُعرف بـ (Germane Cognitive Load)، وهو مؤشر على مدى استيعاب الدماغ للمعلومات بنحو عميق وتنظيمها في الذاكرة الطويلة الأمد.
وأظهرت الدراسة أيضًا، أن المقالات التي كتبتها المجموعة التي استخدمت ChatGPT كانت متشابهة بنحو ملحوظ وافتقرت إلى الأصالة، كما عبّر المشاركون عن شعور ضعيف بالانتماء أو «الملكية» تجاه ما كتبوه.
ومع تكرار استخدام الأداة، لاحظ الباحثون تدهورًا تدريجيًا في الأداء، فقد أصبح المستخدمون يكتفون بنسخ النصوص المولدة دون مراجعة أو تفكير نقدي. واستمرت هذه التأثيرات السلبية حتى بعد التوقف عن استخدام الأداة، مما يشير إلى احتمالية حدوث تغيّرات دائمة في طريقة عمل الدماغ.
ومن المُتوقع أن تكون أدمغة الشباب، التي ما تزال في طور النمو، أكثر عرضة لهذه التأثيرات، مما يثير القلق من الانتشار الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية.
تغيّرات في الأنشطة العصبية في الدماغاعتمدت الدراسة على فحوصات التخطيط الكهربائي للدماغ «EEG» لرصد الأنشطة العصبية. وقد أظهرت النتائج أن المشاركين الذين كتبوا بالاعتماد على قدراتهم الذاتية كان لديهم اتصالات عصبية أكثر ترابطًا من غيرهم، إذ سُجل لديهم 79 اتصالًا عصبيًا في نطاق موجات ألفا المرتبطة بالتركيز والتفكير الإبداعي. وأما الذين استخدموا محركات البحث فحققوا مستوى أداء متوسط، وسجل مستخدمو ChatGPT أضعف أداء بلغ 42 اتصالًا فقط.
كما رُصد انخفاض مماثل في نطاق موجات «ثيتا» Theta، المرتبط بالذاكرة والتحكم التنفيذي، إذ بلغ عدد الاتصالات العصبية لدى المجموعة التي اعتمدت على مهاراتها الذاتية في الكتابة 65 اتصالًا، مقابل 29 اتصالًا عصبيًا فقط لدى مستخدمي ChatGPT. وتُشير هذه الفروقات إلى وجود علاقة عكسية بين الاعتماد على أدوات الذكاء الاصطناعي وبين انخراط الدماغ في معالجة المعلومات.
خلل في الذاكرة وتراجع القدرة على التذكرمن أكثر النتائج إثارة للقلق، أن ما نسبته 83% من مستخدمي ChatGPT لم يتمكنوا من تذكّر اقتباسات من مقالات كتبوها قبل دقائق فقط، وبلغت النسبة 11.1% فقط لدى من استخدموا محركات البحث أو كتبوا دون مساعدة. وعند مطالبتهم بإعادة كتابة المقال دون استخدام الذكاء الاصطناعي، عجزوا عن تذكر معظم المحتوى، مما يشير إلى ضعف معالجة المعلومات في الذاكرة الطويلة الأمد.
تأثيرات مستقبلية في التعليمتثير نتائج هذه الدراسة تساؤلات جوهرية عن الخطر المرتبط بالاستخدام الواسع لأدوات الذكاء الاصطناعي في البيئات التعليمية، خاصة لدى الفئات العمرية الصغيرة التي ما تزال في طور تطوير قدراتها العقلية. وقد حذّرت الباحثة الرئيسية في الدراسة، Nataliya Kosmyna من أن الطلاب الذين يعتمدون على أدوات مثل ChatGPT قد يطوّرون أنماطًا معرفية مختلفة تؤثر في مهاراتهم الذهنية المستقبلية.
وتتوافق هذه النتائج مع دراسات أخرى تشير إلى أن الاستخدام المكثف للذكاء الاصطناعي قد يُساهم في زيادة الشعور بالوحدة وانخفاض الإبداع، حتى مع مساهمته في تحسين الإنتاجية.
اقرأ أيضاًالتكنولوجيا الرقمية والذكاء الاصطناعي يعيدان تشكيل مستقبل التعليم
«ميتا» تستثمر 14.3 مليار دولار في شركة الذكاء الاصطناعي «سكيل»
الذكاء الاصطناعي يزف بشرى سارة لـ الأهلي قبل مواجهة إنتر ميامي