تحذير من OpenAI.. محادثات ChatGPT قد تصل للشرطة تحت هذه الظروف
تاريخ النشر: 11th, September 2025 GMT
أكدت شركة OpenAI أن بعض محادثات ChatGPT قد ترفع إلى السلطات القانونية في إطار سياساتها الخاصة بالأمان والمراجعة.
وبينما تهدف هذه الخطوة إلى منع الأذى في العالم الحقيقي، فقد أثارت جدلا واسعا بشأن الخصوصية وحرية التعبير، إضافة إلى تساؤلات حول الحدود الفاصلة بين حماية المستخدم والتوسع في الرقابة.
. ChatGPT يطلق أدوات رقابة أبوية جديدة
وفقا للسياسة التي أوضحتها OpenAI:
- التهديدات بالعنف: إذا قدم المستخدم تهديدات مباشرة بالضرر تجاه الآخرين، يتم مراجعة المحادثة من قبل المراجعين البشر، إذا تم الحكم على التهديد بأنه جاد ووشيك، قد يتم إحالة القضية إلى الشرطة.
- حالات الأذى الذاتي: على عكس التهديدات تجاه الآخرين، لا يتم إرسال محتوى الأذى الذاتي إلى الشرطة. بدلا من ذلك، يعرض على المستخدمين روابط لخطوط الأزمة للحصول على الدعم الفوري.
- إجراءات التنفيذ: قد يواجه المستخدمون الذين ينشرون تهديدات عنيفة تعليقا لحساباتهم أو حظرا دائما، بالإضافة إلى العواقب القانونية المحتملة.
لماذا يهم ذلك؟تسلط هذه الآلية الجديدة الضوء على التوتر المستمر بين الأمان والخصوصية في عصر الذكاء الاصطناعي، وتؤكد OpenAI أن هذه الخطوة تهدف لحماية الأفراد من الأذى، لكن النقاد يحذرون من غموض المعايير:
- ما هو تعريف التهديد الجاد مقابل التهديد الغامض؟
- هل يمكن أن يتم الإبلاغ عن المحادثات الساخرية أو الافتراضية خارج سياقها؟
- ما هو حجم البيانات التي يتم مشاركتها مع السلطات القانونية، وتحت أي إشراف؟
يخشى البعض من أن تكون الحدود الغامضة مفتوحة لتوسيع المراقبة على المستخدمين العاديين، خاصة وأن ChatGPT يستخدم بشكل واسع في المحادثات غير الرسمية، العصف الذهني، وحتى المحادثات التي تتضمن أدوارا تمثيلية.
الصورة الأكبرلا يتعلق الأمر بشركة OpenAI فقط، بل يعكس اتجاها عالميا نحو فرض رقابة أكثر صرامة على الذكاء الاصطناعي، على سبيل المثال:
في الصين، تلزم منصات مثل WeChat وDouyin وWeibo بفرض سياسات صارمة لتصنيف محتوى الذكاء الاصطناعي، يجب أن تحمل المشاركات التي تحتوي على نصوص أو صور أو مقاطع فيديو مولدة بالذكاء الاصطناعي معرفات مرئية ومخفية مثل العلامات المائية في البيانات الوصفية.
بدأت الشركات الأمريكية مثل جوجل في تجربة C2PA، حيث يتم تضمين بصمات رقمية في الإبداعات التي يتم توليدها بواسطة الذكاء الاصطناعي.
تتجه الحكومات في جميع أنحاء العالم نحو فرض المزيد من الشفافية والمساءلة في مجال الذكاء الاصطناعي.
باختصار، يبدو أن مجال الذكاء الاصطناعي يتجه بسرعة نحو مزيد من التنظيم والمراقبة والإنفاذ، مما يعني أن المستخدمين سيكون عليهم أن يكونوا أكثر وعيا حول كيفية تفاعلهم مع هذه الأدوات.
المصدر: صدى البلد
كلمات دلالية: محادثات ChatGPT الذکاء الاصطناعی
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.