نرويجي يقاضي “تشات جي بي تي” بعد تصنيفه مجرمًا قتل طفليه
تاريخ النشر: 20th, March 2025 GMT
يمن مونيتور/ (أ ف ب)
تقدّم أحد مستخدمي الإنترنت في النرويج بشكوى في بلده على الشركة المسؤولة عن روبوت المحادثة القائم على الذكاء الاصطناعي التوليدي “تشات جي بي تي” لكونه عرّف عنه خطأً على أنه مجرم قتل اثنين من أطفاله، وفق ما أفادت الخميس منظمة تتولى الدفاع عن الخصوصية.
ولاحظت منظمة “نويب” غير الحكومية ومقرها في فيينا في بيان أن “تطبيق تشات جي بي تي، يعطي باستمرار معلومات كاذبة (…) يمكن أن تلحق ضررا فادحا بسمعة شخص ما، ويتهم بعض الناس بشكل غير مبرر بالفساد، أو بإساءة معاملة الأطفال، أو حتى بالقتل”.
وبعد تقديم المنظمة شكوى أولى في النمسا في نيسان/أبريل 2024، توجهت راهنا إلى هيئة حماية البيانات النروجية “داتاتيلسينت” للإبلاغ عما تعرّض له المستخدم آرفه يالمار هولمن الذي تلقى هذه النتيجة المفاجئة بعدما طلب من “تشات جي بي تي” كتابة نبذة عنه.
ونقل بيان المنظمة عن المشتكي قوله إن “البعض يعتقد أن لا دخان من دون نار، وهذا أكثر ما يخيفني، أي أن يقتنع شخص ما بصدقية هذه المزاعم”.
وبعد هذه الحادثة، بادرت الشركة الأمريكية التي ابتكرت برنامج الذكاء الاصطناعي التوليدي إلى تعديل المعلومات المتعلقة بآرفه يالمار هولمن فلم تعدّ تعرّف به على أنه قاتل. لكنّ هذه البيانات الكاذبة قد تبقى في الأنظمة الداخلية، بحسب “نويب” التي يتكون اسمها Noyb من الأحرف الأولى لعبارة None of your business بالإنكليزية، وتعني بالعربية “هذا ليس من شأنك”.
ورأت المنظمة أن “شركة أوبن إيه آي، من خلال السماح عن علم لنموذجها القائم على الذكاء الاصطناعي بإنشاء نتائج تشهيرية، تنتهك مبدأ الدقة” المنصوص عليه في القانون الأوروبي العام لحماية البيانات، مطالِبَة بـ”حذف” المعلومات المغلوطة وتحسين التكنولوجيا وفرض “غرامة إدارية”.
المصدر: يمن مونيتور
كلمات دلالية: تشات جي بي تي تقنية منوعات تشات جی بی تی
إقرأ أيضاً:
كيف تكشف التزييف في عصر الذكاء الاصطناعي؟
شهد العالم الرقمي تحولًا واسعًا مع ظهور تقنيات قادرة على إنتاج محتوى مرئي يكاد يتطابق مع الحقيقة، ويأتي التزييف العميق في مقدمة هذه التقنيات لما يمتلكه من قدرة على تركيب الوجوه وتوليد مشاهد كاملة، مما أثار مخاوف تتعلق بالمصداقية والأمن، ودفع إلى تطوير وسائل فعّالة للكشف عن التلاعب.
قد تبدو حركة العين غير طبيعية، فيقل الرمش أو يزيد، أو يظهر البؤبؤ ثابتًا لا يتماشى مع حركة الرأس
تزامن الشفاه مع الصوتأي اختلاف بين حركة الفم والكلام يدل على معالجة رقمية أو دمج غير دقيق
تشوه الحواف والدمج غير المتقنقد تظهر ضبابية أو اهتزازات حول خط الشعر والذقن والرقبة نتيجة صعوبة دمج الوجه الرقمي بالجسد الحقيقي
اختلاف الإضاءة ولون البشرةقد يلاحظ المتلقي اختلافًا بين لون بشرة الوجه وبقية أجزاء الجسد، أو ظلالًا غير منطقية لا تتناسب مع مصادر الضوء
صوت غير طبيعيقد يبدو الصوت مسطحًا أو ذا طابع معدني بسبب توليده بالذكاء الاصطناعي، ما يجعله يفتقر إلى الانفعالات البشرية.
ثانيًا: تقنيات متقدمة للكشف الدقيق عن الفيديوهات المزيفةأداة Microsoft Video Authenticatorتعتمد على تحليل تدرجات الألوان والحدود الدقيقة للدمج، وتمنح المستخدم نسبة لاحتمال التلاعب
تقنية Intel FakeCatcherترصد التغيرات الدقيقة في لون البشرة الناتجة عن تدفق الدم، وهي تغييرات يصعب التلاعب بها، مما يجعلها فعّالة في الكشف اللحظي
منصة Sensity AIتتبع انتشار المقاطع المزيفة عبر الإنترنت باستخدام قواعد بيانات ضخمة ونماذج متقدمة
أداة Sentinel للتلاعب الصوتيتحلل الطيف الصوتي للكشف عن الأصوات المستنسخة أو المُولدة رقميًا
مجموعة WeVerify الأوروبيةتوفر نظامًا متكاملًا للتحقق من أصل الفيديو وسياق نشره وبياناته الوصفية، مما يمنح رؤية شاملة حول مدى صدقيته.
تحدي حقيقيأصبحت تقنيات التزييف العميق تحديًا حقيقيًا في عالم الاتصال الرقمي، فهي قادرة على إنتاج مقاطع تبدو حقيقية إلى حد يربك المتلقي ويهدد موثوقية المعلومات، ومن هنا تأتي أهمية الوعي بهذه الظاهرة ومعرفة العلامات البصرية والسمعية التي تفضحها، إلى جانب الاستفادة من الأدوات التقنية المتقدمة التي تكشف التلاعب بدقة عالية.