القضاء الأمريكي يُنهي إلزام OpenAI بحفظ سجلات ChatGPT إلى أجل غير مسمى
تاريخ النشر: 17th, October 2025 GMT
في تطور قضائي جديد يُخفف الضغط على شركة OpenAI، أنهت المحكمة الفيدرالية الأمريكية القرار السابق الذي كان يُلزم الشركة بالاحتفاظ بجميع سجلات بيانات ChatGPT لأجل غير مسمى، في إطار الدعوى التي رفعتها صحيفة نيويورك تايمز ضد الشركة بشأن انتهاك حقوق النشر.
ففي التاسع من أكتوبر الجاري، أصدرت القاضية الفيدرالية أونا ت.
تعود جذور القضية إلى نهاية عام 2023، عندما اتهمت صحيفة نيويورك تايمز شركة OpenAI بانتهاك حقوق الملكية الفكرية، مدعيةً أن الشركة استخدمت مقالاتها وتقاريرها الصحفية لتدريب نماذج الذكاء الاصطناعي الخاصة بها — وعلى رأسها ChatGPT — دون الحصول على إذن مسبق أو تقديم تعويض. وقد اعتُبر هذا الملف أحد أكثر النزاعات القانونية حساسية في مشهد الذكاء الاصطناعي العالمي، إذ يفتح الباب أمام تساؤلات كبرى حول حدود استخدام البيانات العامة في تدريب الأنظمة الذكية.
في مايو الماضي، أمرت المحكمة شركة OpenAI بحفظ جميع سجلات الدردشة والمخرجات النصية الخاصة بمستخدمي ChatGPT، بهدف تمكين الصحيفة من مراجعة المواد التي قد تكون استُخدمت في تدريب النماذج. غير أن الشركة اعتبرت هذا القرار مفرطًا في نطاقه، مشيرةً إلى أنه يشكل خطرًا على خصوصية المستخدمين ويعرّض بياناتهم للتدقيق غير المبرر. ووصفت OpenAI الأمر بأنه "يتجاوز ما هو ضروري قانونيًا"، مؤكدة أنها تتعامل مع البيانات وفقًا لأعلى معايير الأمان والخصوصية.
ومع القرار الجديد الصادر هذا الشهر، أصبحت OpenAI غير ملزمة بالاحتفاظ بالسجلات الكاملة بعد تاريخ 26 سبتمبر، باستثناء السجلات التي ترتبط مباشرة بالمستخدمين أو الحسابات التي حددتها صحيفة نيويورك تايمز في ملفها القضائي. وأوضح القاضي أن البيانات التي كانت محفوظة بموجب الأمر السابق ستظل متاحة للمراجعة، في حين سيُسمح للصحيفة بطلب توسيع نطاق المستخدمين الخاضعين للفحص في مراحل لاحقة من القضية.
ويُعد هذا القرار بمثابة توازن قانوني بين حماية حقوق الملكية الفكرية للناشرين والحفاظ على الخصوصية الرقمية لمستخدمي الذكاء الاصطناعي. فبينما تسعى نيويورك تايمز لإثبات أن أنظمة OpenAI اعتمدت على محتواها الصحفي بشكل غير قانوني، تُصر الشركة على أن بيانات التدريب التي تستخدمها مستمدة في معظمها من مواد عامة متاحة على الإنترنت.
من جانبه، يرى خبراء التكنولوجيا أن هذا القرار قد يُخفف العبء التقني والقانوني عن OpenAI، إذ كان تخزين بيانات جميع المستخدمين يمثل تحديًا ضخمًا من حيث المساحة والأمان، إلى جانب المخاطر المحتملة لتسريب المعلومات أو إساءة استخدامها. ويعتقد آخرون أن القرار قد يشكل سابقة قانونية مهمة، تضع خطوطًا أوضح للتعامل مع قضايا الملكية الفكرية في مجال الذكاء الاصطناعي مستقبلاً.
وتأتي هذه التطورات في وقت تتزايد فيه المواجهات القانونية بين شركات التقنية العملاقة ووسائل الإعلام حول العالم، في ظل الجدل المستمر بشأن كيفية استخدام محتوى الإنترنت في تدريب أنظمة الذكاء الاصطناعي التوليدي. فإلى جانب نيويورك تايمز، رفعت مؤسسات إعلامية أخرى مثل The Intercept وRaw Story دعاوى مشابهة ضد OpenAI وشركات منافسة مثل Google وAnthropic.
ورغم أن القضية لا تزال في مراحلها المبكرة، فإن القرار الأخير يمثل انفراجة محدودة لصالح OpenAI، ويمنحها هامشًا أوسع لإدارة بيانات المستخدمين دون قيود طويلة الأمد. ومع ذلك، ستبقى الشركة مطالبة بتقديم بيانات محددة عند الحاجة، لضمان استمرار التحقيق في مدى قانونية استخدام المحتوى الصحفي في تدريب نماذجها اللغوية.
بهذا، يُغلق فصل من فصول النزاع مؤقتًا، فيما تظل أعين المراقبين مركزة على كيفية موازنة القضاء الأمريكي بين الابتكار التكنولوجي وحقوق النشر في عصر الذكاء الاصطناعي.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی نیویورک تایمز هذا القرار فی تدریب
إقرأ أيضاً:
هل أصبح الذكاء الاصطناعي هو صانع الرأي العام الجديد؟
في زمنٍ غير ببعيد كانت فيه منصات التواصل الاجتماعي رمزًا لحرية التعبير والتفاعل المفتوح، إلا أننا نجدها اليوم وقد تحوّلت تدريجيًا إلى ساحات تُدار بخوارزميات خفية تُوجّه ما نراه وما نعتقده. لم يعد المستخدم هو من يختار ما يقرأ أو يشاهد، بل أصبحت المنصات هي التي تختار له، مستندة إلى نماذج ذكاء اصطناعي ترصد سلوكه وتُحلّل انفعالاته ومدى تفاعله وحتى ميوله العاطفية والسياسية، وكافة ما يتصل به. وهو ما يجعلنا أمام وهم قائم على شعور المستخدم بالحرية الرقمية، إذ يقرر متى يستكمل قراءة منشور مشاهدة فيديو أو إبداء مشاعره تجاه محتوى ما، غير أن الواقع يؤكد على أن هذه المنصات أعادت صياغة وعينا بطريقة هادئة وممنهجة.
فالخوارزميات الحديثة تعتمد على تغذية المستخدم بالمحتوى الذي يُثير اهتمامه ويُعزز قناعاته، مما يؤدي إلى تكوين ما يُعرف بـ"غرف الصدى"؛ إذ يسمع الأفراد فقط ما يتفق مع آرائهم، وكأننا نعيد تشكيل نظريات دوامة الصمت ولكن بنمط معاصر؛ فبينما نظن أننا نُكوّن آراءنا بحرية، نكون في الواقع نتلقّى واقعًا مصممًا بعناية من قبل أنظمة ذكية تهدف إلى زيادة التفاعل لا الحقيقة.
لقد تحوّل الذكاء الاصطناعي في هذه المنصات من أداة تحليل إلى قوة موجهة للرأي والسلوك، تُعيد رسم المشهد العام وتؤثر في اتجاهات التصويت والمواقف الاجتماعية وحتى القيم الثقافية.
ولا يقتصر التأثير على ما نقرأ أو نشارك، بل يمتد إلى كيفية إدراكنا للعالم. فالمحتوى المُولّد آليًا والمقاطع المعدّلة بالذكاء الاصطناعي (deepfakes) تُسهم في خلق بيئة ضبابية يصعب فيها التمييز بين الحقيقة والتزييف، مما يُضعف الثقة في الإعلام التقليدي ويزيد من هشاشة الوعي الجمعي. وهو ما بتنا نراه اليوم بكثرة عبر عدد مئات بل وملايين المقاطع التي يدور حولها جدل كبير حول ما إذ كانت حقيقية أو مولدة بالذكاء الاصطناعي، وهو ما يجعل البسطاء وقليلي الخبرة بالتقنية فريسة سهلة المنال. خاصة بعدما أثبتت دراسات عدة أن الخوارزميات تميل إلى تضخيم المحتوى المثير للجدل والانفعالات الحادة لأنها تزيد من وقت البقاء على المنصة، حتى لو كان ذلك على حساب الاستقرار الاجتماعي أو الحوار العقلاني.
من هنا، لم يعد السؤال الذي نطرحه على أنفسنا حول مدى "ذكاء| هذه الأنظمة، بل عن مدى "مسؤوليتها". فالمجتمعات التي لا تضع أطرًا أخلاقية وتشريعية لاستخدام الذكاء الاصطناعي في الإعلام، تُخاطر بترك الرأي العام رهينة لمعادلات رياضية وأتمتة بلا ضمير.
وفي النهاية يجب علينا التأكيد على كون الذكاء الاصطناعي لن يتوقف عن التطور، لكن علينا أن نحدد له وجهته. فإما أن يكون أداة للتنوير والتنوع المعرفي، أو يتحول إلى "محرر خفي" و"صانع رأي" لا يملك ذرة ضمير، وبالتالي يمكنه إعادة تشكيل وعينا دون أن نشعر. وهنا يجب ان يتحد صُنّاع السياسات والإعلاميين والأكاديميين معًا، للحفاظ على المسافة الآمنة بين الإنسان والخوارزمية... بين حرية التفكير وبرمجة العقول.