أي شخص يمكن أن يصبح ضحية لمقاطع إباحية زائفة مُنتجة بالذكاء الصناعي.. إليك كيفية حماية نفسك
تاريخ النشر: 12th, November 2024 GMT
(CNN)-- "كل ما نحتاجه هو مجرد هيئة بشرية لنكون ضحايا"، هكذا تصف المحامية كاري غولدبرغ خطر المواد الإباحية الزائفة في عصر الذكاء الاصطناعي.
في حين أن المواد الإباحية الانتقامية - أو مشاركة الصور الجنسية غير المسموح بها - موجودة منذ فترة طويلة كما الإنترنت، فإن انتشار أدوات الذكاء الاصطناعي يعني أنه يمكن استهداف أي شخص بهذا الشكل من المضايقة، حتى لو لم يلتقط أو يرسل صورة عارية أبدًا.
في العام الماضي، تراوحت أهداف الصور الإباحية التي تم إنشاؤها بواسطة الذكاء الاصطناعي من نساء بارزات، مثل تايلور سويفت والنائب ألكسندريا أوكاسيو كورتيز، إلى فتيات المدارس الثانوية.
بالنسبة لشخص يكتشف أنه، أو طفله، قد تم جعله موضوعًا لصور إباحية مزيفة، فإن التجربة تكون مخيفة ومرهقة عادةً، كما قالت غولدبرغ، التي تدير شركة C.A. Goldberg Law ومقرها نيويورك والتي تمثل ضحايا الجرائم الجنسية والتحرش عبر الإنترنت. وقالت: "خاصة إذا كانوا صغارًا ولا يعرفون كيفية التعامل، والإنترنت مكان كبير وهائل وغامض".
ولكن هناك خطوات يمكن لأهداف هذا الشكل من التحرش اتخاذها لحماية أنفسهم وأماكن يمكن اللجوء إليها للحصول على المساعدة، كما قالت غولدبرغ في مقابلة على بودكاست التكنولوجيا الجديد (شروط الخدمة) على شبكة CNN مع كلير دافي.
المصدر: CNN Arabic
كلمات دلالية: الحزب الجمهوري الحزب الديمقراطي الذكاء الاصطناعي الكونغرس الأمريكي الذکاء الاصطناعی
إقرأ أيضاً:
محامون في بريطانيا مهددون بعقوبات قاسية بسبب الاستعانة بالذكاء الاصطناعي
في سابقة قانونية مهمة، أصدرت المحكمة العليا في إنجلترا وويلز تحذيرًا واضحًا للمحامين بشأن استخدام أدوات الذكاء الاصطناعي التوليدي في أعمالهم، مثل ChatGPT، مطالبة إياهم باتخاذ خطوات أكثر صرامة لتفادي إساءة استخدام هذه التقنيات في السياقات القانونية.
القاضية فيكتوريا شارب، وفي قرارها الذي دمج بين قضيتين حديثتين، أكدت أن أدوات الذكاء الاصطناعي التوليدي "ليست قادرة على إجراء أبحاث قانونية موثوقة"، مضيفة أن "هذه الأدوات قد تُنتج استجابات تبدو متماسكة ومعقولة من الناحية الظاهرية، إلا أن تلك الاستجابات قد تكون خاطئة تمامًا في جوهرها".
المسؤولية المهنية للمحامين لا تزال قائمةورغم أن القاضية لم تحظر استخدام الذكاء الاصطناعي بالكامل، إلا أنها شددت على أن المحامين ملزمون مهنيًا بالتحقق من دقة الأبحاث التي تُجرى باستخدام أدوات الذكاء الاصطناعي، من خلال الرجوع إلى مصادر موثوقة وموثقة قبل إدراج تلك المعلومات في ملفاتهم القانونية أو تقديمها للمحكمة.
وقالت القاضية: “مع تزايد الحالات التي يستشهد فيها محامون بمعلومات خاطئة يبدو أنها مولدة بالذكاء الاصطناعي، يجب بذل المزيد من الجهد لضمان الالتزام بالتوجيهات، ولضمان وفاء المحامين بواجباتهم تجاه المحكمة”.
في إحدى القضيتين موضوع الحكم، قدم محامٍ يمثّل رجلاً يطالب بتعويضات من مصرفين مذكرة قانونية تضمنت 45 مرجعًا قانونيًا، تبيّن أن 18 منها لا وجود لها أصلًا. كما أن العديد من الاقتباسات الأخرى إما كانت مزيفة أو لا علاقة لها بموضوع الطلب أو لم تدعم الحُجج التي استخدمها المحامي.
وفي القضية الأخرى، استشهدت محامية في قضية إخلاء أحد سكان لندن بخمسة قرارات قضائية تبيّن للمحكمة أنها أيضًا غير موجودة.
رغم إنكار المحامية لاستخدامها الذكاء الاصطناعي بشكل مباشر، فقد أقرّت بإمكانية أن تكون تلك المراجع قد استُمدت من ملخصات عبر "جوجل" أو "سفاري" والتي يُحتمل أنها تولدت عبر الذكاء الاصطناعي.
وأوضحت القاضية أن المحكمة اختارت عدم اتخاذ إجراءات بتهمة ازدراء المحكمة، لكنها شددت أن هذا "لا يُعد سابقة قانونية".
توصية بإحالة الحكم إلى الهيئات المهنيةواختتمت القاضية شارب قرارها بالإشارة إلى أنه سيتم إرسال الحكم إلى الهيئات المهنية المختصة، بما في ذلك مجلس نقابة المحامين (Bar Council) وجمعية القانون (Law Society)، بهدف تعزيز الوعي وتنظيم استخدام أدوات الذكاء الاصطناعي في القطاع القانوني بما يضمن النزاهة والدقة المهنية.