أكدت شركة OpenAI أن بعض محادثات ChatGPT قد ترفع إلى السلطات القانونية في إطار سياساتها الخاصة بالأمان والمراجعة. 

وبينما تهدف هذه الخطوة إلى منع الأذى في العالم الحقيقي، فقد أثارت جدلا واسعا بشأن الخصوصية وحرية التعبير، إضافة إلى تساؤلات حول الحدود الفاصلة بين حماية المستخدم والتوسع في الرقابة.

لحماية المراهقين.

. ChatGPT يطلق أدوات رقابة أبوية جديدةبدائل مميزة لـ ChatGPT.. أدوات ذكاء اصطناعي تناسب مختلف الاحتياجاتمتى قد يتم الإبلاغ عن محادثات ChatGPT؟

وفقا للسياسة التي أوضحتها OpenAI:

- التهديدات بالعنف: إذا قدم المستخدم تهديدات مباشرة بالضرر تجاه الآخرين، يتم مراجعة المحادثة من قبل المراجعين البشر، إذا تم الحكم على التهديد بأنه جاد ووشيك، قد يتم إحالة القضية إلى الشرطة.

- حالات الأذى الذاتي: على عكس التهديدات تجاه الآخرين، لا يتم إرسال محتوى الأذى الذاتي إلى الشرطة. بدلا من ذلك، يعرض على المستخدمين روابط لخطوط الأزمة للحصول على الدعم الفوري.

- إجراءات التنفيذ: قد يواجه المستخدمون الذين ينشرون تهديدات عنيفة تعليقا لحساباتهم أو حظرا دائما، بالإضافة إلى العواقب القانونية المحتملة.

لماذا يهم ذلك؟

تسلط هذه الآلية الجديدة الضوء على التوتر المستمر بين الأمان والخصوصية في عصر الذكاء الاصطناعي، وتؤكد OpenAI أن هذه الخطوة تهدف لحماية الأفراد من الأذى، لكن النقاد يحذرون من غموض المعايير:

- ما هو تعريف التهديد الجاد مقابل التهديد الغامض؟

- هل يمكن أن يتم الإبلاغ عن المحادثات الساخرية أو الافتراضية خارج سياقها؟

- ما هو حجم البيانات التي يتم مشاركتها مع السلطات القانونية، وتحت أي إشراف؟

يخشى البعض من أن تكون الحدود الغامضة مفتوحة لتوسيع المراقبة على المستخدمين العاديين، خاصة وأن ChatGPT يستخدم بشكل واسع في المحادثات غير الرسمية، العصف الذهني، وحتى المحادثات التي تتضمن أدوارا تمثيلية.

الصورة الأكبر

لا يتعلق الأمر بشركة OpenAI فقط، بل يعكس اتجاها عالميا نحو فرض رقابة أكثر صرامة على الذكاء الاصطناعي، على سبيل المثال:

في الصين، تلزم منصات مثل WeChat وDouyin وWeibo بفرض سياسات صارمة لتصنيف محتوى الذكاء الاصطناعي، يجب أن تحمل المشاركات التي تحتوي على نصوص أو صور أو مقاطع فيديو مولدة بالذكاء الاصطناعي معرفات مرئية ومخفية مثل العلامات المائية في البيانات الوصفية.

بدأت الشركات الأمريكية مثل جوجل في تجربة C2PA، حيث يتم تضمين بصمات رقمية في الإبداعات التي يتم توليدها بواسطة الذكاء الاصطناعي.

تتجه الحكومات في جميع أنحاء العالم نحو فرض المزيد من الشفافية والمساءلة في مجال الذكاء الاصطناعي.

باختصار، يبدو أن مجال الذكاء الاصطناعي يتجه بسرعة نحو مزيد من التنظيم والمراقبة والإنفاذ، مما يعني أن المستخدمين سيكون عليهم أن يكونوا أكثر وعيا حول كيفية تفاعلهم مع هذه الأدوات.

طباعة شارك ChatGPT OpenAI محادثات ChatGPT

المصدر: صدى البلد

كلمات دلالية: محادثات ChatGPT الذکاء الاصطناعی

إقرأ أيضاً:

هل يشجع الذكاء الاصطناعي البشر على الغش؟

أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.

وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.

اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of list

وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).

وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.

وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.

وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".

صورة مولدة بالذكاء الاصطناعي عن الغشحماس كبير

ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.

اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".

إعلان

وأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.

وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.

وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.

وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • تحالف المليارات.. OpenAI وAMD تطلقان صفقة تاريخية في الذكاء الاصطناعي
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟
  • تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
  • " الأسهم الأمريكية " تفتح على ارتفاع بدعم الذكاء الاصطناعي
  • الأصوات التي يُنتجها الذكاء الاصطناعي.. الجانب المظلم من التقنية المدهشة