يُظهر أحد الإعلانات رئيس الوزراء البريطاني ريشي سوناك وهو يؤيد تطبيقا من المفترض أنه تم تطويره من قبل رجل الأعمال إيلون ماسك، حيث يمكن للمشاهدين تحقيق "مدخرات" منتظمة من خلاله.

الفيديو مزيف. تم إنشاؤه بمساعدة الذكاء الاصطناعي، وهو مجرد واحد من 143 إعلانا من هذا النوع تم فهرستها بواسطة شركة  "Fenimore Harper Communications"، وهي شركة بريطانية، والتي نشرتها في كانون الأول/ ديسمبر وكانون الثاني/ يناير.



ليس فقط الشخصيات المشهورة هم الذين يمكن استخدام صورهم لأغراض مشكوك فيها. ففي حزيران/ يونيو 2023، حذر مكتب التحقيقات الفيدرالي في أمريكا الجمهور من "الجهات الخبيثة" التي تستخدم الذكاء الاصطناعي لإنشاء مقاطع فيديو وصور مزيفة ذات مواضيع جنسية لأشخاص عاديين، من أجل ابتزاز الأموال، وفق تقرير لمجلة "ايكونوميست".

تعد كيفية اكتشاف مثل هذا الخداع موضوعا حيا بين باحثي الذكاء الاصطناعي، الذين حضر العديد منهم مؤتمر "نيوريبس"، وهو أحد أكبر المؤتمرات في هذا المجال، والذي عقد في نيو أورليانز في كانون الأول/ ديسمبر الماضي.

يقدم عدد كبير من الشركات، بدءا من الشركات الناشئة إلى عمالقة التكنولوجيا الراسخين مثل "Intel" و"Microsoft"، برامج تهدف إلى اكتشاف الوسائط التي يتم إنشاؤها بواسطة الآلة. وفي الوقت نفسه، يبحث صانعو نماذج الذكاء الاصطناعي الكبيرة عن طرق لوضع علامة مائية على إنتاجهم بحيث يمكن تمييز الصور أو مقاطع الفيديو أو النصوص الحقيقية بسهولة عن تلك التي يتم إنشاؤها بواسطة الآلة.

لكن، وفق تقرير المجلة، فمثل هذه التقنيات لم تثبت حتى الآن جدارتها. يبدو أن الخبراء متشائمون بشأن آفاقهم.

أجرت "الإيكونوميست" استطلاعا غير علمي للمندوبين في "نيوريبس". من بين 23 شخصا تم سؤالهم، اعتقد 17 منهم أن الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ستصبح في النهاية غير قابلة للاكتشاف. واحد فقط يعتقد أن الكشف الموثوق سيكون ممكنا. (اعترض الخمسة الآخرون، مفضلين الانتظار ورؤية ما سيحصل).

تعتمد برامج الكشف على فكرة أن نماذج الذكاء الاصطناعي ستترك أثرا. إما أنها ستفشل في إعادة إنتاج بعض جوانب الصور ومقاطع الفيديو الحقيقية، أو النصوص التي أنشأها الإنسان، أو ستضيف شيئا غير ضروري، وستفعل ذلك كثيرا بما يكفي للسماح للبرامج الأخرى باكتشاف الخطأ. لفترة من الوقت، يمكن للبشر القيام بهذه المهمة. حتى منتصف عام 2023 تقريبا، على سبيل المثال، غالبا ما تنتج خوارزميات توليد الصور أشخاصا بأيدٍ مشوهة، أو تخطئ في أرقام أشياء مثل وجوه الساعة. في هذه الأيام، لم يعد الأفضل من بين تلك الخوارزميات يفعل ذلك.

لكن مثل هذه القصص لا تزال موجودة في كثير من الأحيان، حتى لو أصبح من الصعب على البشر اكتشافها. وكما يمكن تدريب الآلات على التعرف بشكل موثوق على القطط، أو الأورام السرطانية من خلال عمليات المسح الطبي، فمن الممكن أيضا تدريبها على التمييز بين الصور الحقيقية والصور المولدة بالذكاء الاصطناعي.

ومع ذلك، يبدو أنها لا تستطيع القيام بذلك بشكل جيد. تكون برامج الكشف عرضة لكل من الإيجابيات الكاذبة (وصف محتوى من إنتاج البشر على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي) والسلبيات الكاذبة (السماح للأشياء التي تم إنشاؤها بواسطة الآلة بالمرور دون أن يتم اكتشافها).

وجدت ورقة لم تنشر بعد من إنتاج زيو لو، عالم الكمبيوتر في جامعة شنغهاي جياو تونغ، في أيلول/ سبتمبر، أن البرنامج الأفضل أداء فشل في اكتشاف الصور التي تم إنشاؤها بواسطة الكمبيوتر بشكل صحيح بنسبة 13 بالمئة من الوقت (على الرغم من أن ذلك كان أفضل من البشر الذين أخطأوا في 39 بالمئة من الحالات). الأمور أفضل قليلا عندما يتعلق الأمر بالنص. وقارن أحد التحليلات، الذي نُشر في كانون الأول/ ديسمبر في المجلة الدولية للنزاهة التعليمية، بين 14 أداة، ووجد أن أيا منها لم يحقق دقة تزيد عن 80 بالمئة.

إذا كانت محاولة اكتشاف الوسائط التي تم إنشاؤها بواسطة الكمبيوتر بعد وقوعها أمرا صعبا للغاية، فهناك خيار آخر يتمثل في تصنيفها مسبقا باستخدام علامة مائية رقمية. كما هو الحال مع نوع الورق، تتمثل الفكرة في إضافة ميزة مميزة تكون دقيقة بدرجة كافية بحيث لا تؤثر على جودة النص أو الصورة، ولكنها تكون واضحة لأي شخص يبحث عنها.

تم اقتراح إحدى التقنيات لوضع علامات على النص من قبل فريق من جامعة ميريلاند في حزيران/ يوليو 2023، وأضافها فريق من جامعة كاليفورنيا، سانتا باربرا، الذي قدم تعديلاته في "نيوريبس". والفكرة هي التلاعب بتفضيلات الكلمات الخاصة بنموذج اللغة. أولا، يقوم النموذج بتعيين مجموعة من الكلمات التي يعرفها بشكل عشوائي لمجموعة "خضراء"، ويضع جميع الكلمات الأخرى في مجموعة "حمراء". بعد ذلك، عند إنشاء كتلة نصية معينة، تقوم الخوارزمية بتحميل النرد، مما يزيد من احتمالية اختيار كلمة خضراء بدلا من أحد مرادفاتها الحمراء. يتضمن التحقق من وجود علامة مائية مقارنة نسبة الكلمات الخضراء إلى الحمراء، على الرغم من أن التقنية إحصائية، فهي أكثر موثوقية بالنسبة للأجزاء الأطول من الكتابة.

وفي الوقت نفسه، تتضمن العديد من طرق وضع العلامات المائية على الصور تعديل وحدات البكسل بطرق خفية، مثل تغيير ألوانها. إن التعديلات دقيقة جدا بحيث لا يمكن للمراقبين البشريين ملاحظتها، ولكن يمكن التقاطها بواسطة أجهزة الكمبيوتر. لكن قص الصورة أو تدويرها أو حتى تعتيمها ثم إعادة ضبطها يمكن أن يزيل مثل هذه العلامات.

قدمت مجموعة أخرى من الباحثين في "نيوريبس" مخططا يسمى العلامة المائية "Tree-Ring" والذي تم تصميمه ليكون أكثر قوة. تبدأ نماذج الانتشار، وهي النوع الأكثر تقدما من برامج توليد الصور، بملء مساحة الرسم الرقمي بضوضاء عشوائية، والتي تظهر منها الصورة المطلوبة ببطء. تقوم طريقة حلقة الشجرة بتضمين العلامة المائية ليس في الصورة النهائية، ولكن في الضجيج في البداية. إذا تم تشغيل البرنامج الذي أنشأ الصورة في الاتجاه المعاكس، فسوف يقوم بإعادة إنتاج العلامة المائية مع الضوضاء. والأهم من ذلك، أن هذه التقنية أقل سهولة في الإحباط من خلال التلاعب بالصورة النهائية.

ولكن ربما ليس مستحيلا. العلامات المائية في سباق تسلح مع باحثين آخرين يهدفون إلى التغلب على تقنياتهم. قدم فريق آخر بقيادة هانلين تشانغ، وبنجامين إيدلمان، وبواز باراك، وجميعهم من جامعة هارفارد، طريقة (لم تتم مراجعتها بعد من قبل النظراء) يمكنها، كما يقولون، محو العلامات المائية. وهو يعمل عن طريق إضافة مجموعة من التشويش الجديد، ثم استخدام نموذج ذكاء اصطناعي آخر مختلف لإزالة هذا التشويش، مما يؤدي إلى إزالة العلامة المائية الأصلية في العملية. يزعمون أنهم قادرون على إحباط ثلاثة مخططات جديدة لوضع العلامات المائية على النصوص مقترحة في عام 2023.

وفي أيلول/ سبتمبر، نشر علماء في جامعة ميريلاند بحثا (لم تتم مراجعته بعد من قبل النظراء) يزعمون أنه لا توجد أي من الطرق الحالية لوضع العلامات المائية على الصور -بما في ذلك حلقات الشجرة- مضمون.

ومع ذلك، أعلنت الحكومة الأمريكية في تموز/ يوليو2023 عن "التزامات طوعية" مع العديد من شركات الذكاء الاصطناعي، بما في ذلك "Openai" و"Google"، لتعزيز الاستثمار في أبحاث العلامات المائية. من المؤكد أن وجود ضمانات منقوصة أفضل من عدم وجود أي ضمانات (على الرغم من أن مراقبة النماذج مفتوحة المصدر، التي يتمتع المستخدمون بحرية تعديلها، ستكون أكثر صعوبة). ولكن في المعركة بين المزيفين والمحققين، يبدو أن المزيفين لهم اليد العليا.

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا الذكاء الاصطناعي الخبراء خبراء تزييف ذكاء اصطناعي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا سياسة من هنا وهناك تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی التی یتم من قبل

إقرأ أيضاً:

خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود

في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".

أخبار ذات صلة الذكاء الاصطناعي يتنبأ بسكر الدم! تعليم نماذج الذكاء الاصطناعي ما لا تعرفه المصدر: الاتحاد - أبوظبي

مقالات مشابهة

  • المملكة المتحدة ترسخ ريادتها في الذكاء الاصطناعي
  • سامسونغ تتخلى عن ذكاء غوغل الاصطناعي لصالح بيربليكستي
  • كيف يساعد الذكاء الاصطناعي على إنقاص الوزن؟
  • مؤتمر "آبل" للمطورين: تأخّر تقني وضغوط تنظيمية في سباق الذكاء الاصطناعي
  • توظيف تقنيات الذكاء الاصطناعي في التنبؤ بالأعاصير
  • الذكاء الاصطناعي يتيح للأطباء الدردشة مع السجلات الطبية
  • هجوم حاد على راشد الماجد لاستخدامه الذكاء الاصطناعي في أغنيته الجديدة.. فيديو
  • جامعة القاهرة تتصدّر أبحاث الذكاء الاصطناعي في مصر بـ2,191 بحثًا
  • «شرطة دبي» تنظم ورشة تعريفية لتطبيقات الذكاء الاصطناعي
  • خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود