الأب الروحي للذكاء الاصطناعي يحض الحكومات على مواجهة مخاطره
تاريخ النشر: 29th, June 2023 GMT
حض جيفري هينتون الذي يوصف بأنه الأب الروحي للذكاء الاصطناعي، أمس الأربعاء، الحكومات على التدخل لضمان ألا تسيطر الآلات على المجتمع.
وكان هينتون قد تصدّر العناوين في مايو/أيار الماضي عندما أعلن استقالته من غوغل (Google) للتحدث بحرية أكبر عن مخاطر الذكاء الاصطناعي بعد مدة وجيزة من إطلاق برنامج الدردشة "شات جي بي تي" (ChatGPT) الذي أسر العالم.
وتحدث عالِم الذكاء الاصطناعي الذي يدرس في "جامعة تورنتو" أمام جمهور حاشد في مؤتمر كوليجين (collagen) للتكنولوجيا في المدينة الكندية.
واجتذب المؤتمر أكثر من 30 ألفا من مؤسسي الشركات الناشئة والمستثمرين والعاملين في قطاع التكنولوجيا، ومعظمهم جاء متطلعا لتعلم كيفية ركوب موجة الذكاء الاصطناعي وليس لسماع دروس عن مخاطره أو دعوات للحكومات للتدخل.
وقال هينتون "قبل أن يصبح الذكاء الاصطناعي أكثر ذكاءً منا، أعتقد أنه ينبغي تشجيع الأشخاص الذين يطورونه على بذل كثير من الجهد لفهم كيف يمكن أن يحاول سلبنا السيطرة".
وأضاف "الآن هناك 99 شخصا يتمتعون بذكاء كبير يحاولون جعل الذكاء الاصطناعي أفضل، وشخص واحد ذكي جدا يحاول معرفة كيفية منعه من تولّي السيطرة، وربما علينا أن نكون أكثر توازنا".
وحذر هينتون من أن مخاطر الذكاء الاصطناعي يجب أن تؤخذ على محمل الجد.
وتابع "أعتقد أن من المهم أن يدرك الناس أن هذا ليس خيالا علميا أو مجرد إثارة للمخاوف"، واستطرد "إنها مخاطرة حقيقية يجب أن نفكر فيها مليّا، وعلينا التوصل إلى معرفة كيفية التعامل معها أولا".
وأعرب هينتون عن قلقه من أن يعمّق الذكاء الاصطناعي عدم المساواة، حيث المكاسب الهائلة من إنتاجيته ستذهب للأثرياء وليس العمال.
وقال إن "الثروة لن تذهب إلى الأشخاص الذين يعملون، بل ستجعل الأثرياء أكثر ثراءً، وليس الفقراء، وهذا مجتمع بالغ السوء".
كما أشار إلى خطر "الأخبار المزيفة" التي يمكن إنشاؤها بواسطة برامج الروبوتات على غرار "شات جي بي تي"، معربا عن أمله بوضع علامات على المحتوى الذي تولده برامج الذكاء الاصطناعي كما تضع البنوك المركزية علامات على العملات النقدية.
وأكد أن من الأهمية بمكان أن "نحاول، على سبيل المثال، تمييز كل ما هو مزيف على أنه مزيف"، وقال "لا أعرف إذا كان بإمكاننا فعل ذلك تقنيا أم لا".
المصدر: الجزيرة
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".