باحثون يحذرون: نماذج الذكاء الاصطناعي قادرة على خداعنا واختلاق إجابات
تاريخ النشر: 21st, June 2024 GMT
حذر باحثون من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها.
وفي ذات الوقت، أشار الباحثون إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.
وبحسب صحيفة «إندبندنت» البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.
وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.
وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: «إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».
وأضاف: «مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر».وقال الباحثون في دراستهم التي نُشِرت في مجلة «الطبيعة»: «إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة».
ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.
والشهر الماضي، اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.
وفي شهر يناير (كانون الثاني) الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.
واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.
ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.
وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.
وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.
المصدر: عين ليبيا
كلمات دلالية: الذكاء الاصطناعي خداع البشر نماذج الذکاء الاصطناعی
إقرأ أيضاً:
من الإعلام إلى صناديق الاقتراع.. الذكاء الاصطناعي تحت المجهر في ورشة «بصيرة»
تستضيف بعثة الأمم المتحدة للدعم في سوريا ورشة عمل إلكترونية مميزة يقدمها الدكتورة زيزي باباكاريسي، رئيسة قسم الاتصال في جامعة إلينوي–شيكاغو، يوم الأربعاء المقبل، ضمن برنامج «بصيرة» للتطوير المهني الموجه لطلبة الإعلام والعاملين في مجال الصحافة والإعلام.
وبحسب البعثة، تسلط الورشة الضوء على تأثير الذكاء الاصطناعي في مجالات الديمقراطية والسياسة، حيث تتمتع الدكتورة باباكاريسي بخبرة واسعة كباحثة رائدة في الإعلام الرقمي، وتركز أبحاثها على الآثار الاجتماعية والسياسية للمنصات الرقمية، وتعاونت مع شركات كبرى مثل آبل وميتا ومايكروسوفت، ولديها عشر كتب منشورة بالإضافة إلى عضويتها في تحرير خمسة عشر مجلة علمية.
ودعت البعثة الإعلاميين والطلاب الليبيين في كليات الإعلام الذين لم يسجلوا بعد إلى الانضمام للبرنامج عبر التسجيل من خلال الرابط:https://forms.office.com/e/hCTDAkg74V
وتأتي هذه المبادرة في إطار جهود تعزيز مهارات الإعلاميين والطلاب وتأهيلهم لمواكبة التطورات التكنولوجية الحديثة وأثرها في المشهد الإعلامي والسياسي.