أوروبا تدرس تعليق أجزاء من قانون الذكاء الاصطناعي لمنح المطورين مهلة في تطبيق قواعد الرقابة
تاريخ النشر: 7th, November 2025 GMT
تدرس المفوضية تأجيل فرض غرامات على مخالفة قواعد الشفافية الجديدة للذكاء الاصطناعي حتى أغسطس 2027 "لمنح المزوّدين والمستخدمين للأنظمة الذكية وقتاً كافياً للامتثال".
كشفت صحيفة "فايننشال تايمز" أن المفوضية الأوروبية تدرس تعليق أجزاء من قانون الذكاء الاصطناعي الأوروبي تحت ضغط شديد من الشركات وإدارة دونالد ترامب.
وبحسب وثيقة داخلية حصلت عليها الصحيفة، تُمهل المفوضية الأوروبية مطوري الذكاء الاصطناعي التوليدي عاماً إضافياً للامتثال لقواعد الشفافية والرقابة. ويمكن لمرّوّجي الذكاء الاصطناعي التوليدي ــ الأنظمة القادرة على إنتاج محتوى مثل النصوص أو الصور ــ الذين أطلقوا منتجاتهم قبل تاريخ التنفيذ، الحصول على تأجيل عام من تطبيق القوانين "لمنحهم وقتاً كافياً... للتكيف مع ممارساتهم ضمن إطار معقول دون إرباك السوق".
وفقاً الصحيفة تدرس المفوضية تأجيل فرض غرامات على مخالفة قواعد الشفافية الجديدة للذكاء الاصطناعي حتى أغسطس 2027 "لمنح المزوّدين والمستخدمين للأنظمة الذكية وقتاً كافياً للامتثال للقوانين".
من جهته، أشار موقع "MLex" إلى أن المفوضية تراجع شروط مراقبة أداء أنظمة الذكاء الاصطناعي عالية الخطورة، وتسمح التعديلات المقترحة للمطورين بالاعتماد على إرشادات أقل تفصيلاً من النظام الأصلي.
وكانت أعلنت "ميتا" هذا العام أنها لن توقع على مدونة السلوك التي وضعتها المفوضية للنماذج العامة للذكاء الاصطناعي.
وكتب جويل كابلان، الرئيس التنفيذي للشؤون العالمية في الشركة على منصة linkedin: "أوروبا تسلك مساراً خاطئاً في الذكاء الاصطناعي"، معتبراً أن المدونة أدخلت "عدم يقين قانونياً" على مطوري النماذج، بالإضافة إلى تدابير تتجاوز بكثير نطاق قانون الذكاء الاصطناعي.
Related الاتحاد الأوروبي يتحدى ترامب: سيادتنا الرقمية ليست للتفاوض أمام الضغوط الأميركيةالذكاء الاصطناعي والفن والشمول يتصدرون المشهد في إكسبو 2025"ميتا" تمنح الاتحاد الأوروبي حق الوصول إلى نموذج الذكاء الاصطناعي Llama لأغراض الأمن القومي بروكسل تتحدى ترامبوفي أغسطس الماضي، أكدت المفوضية الأوروبية حقها "السيادي" في تنظيم أنشطة شركات التكنولوجيا العملاقة داخل الاتحاد رداً على تصريحات الرئيس الأمريكي دونالد ترامب الذي اعتبر أن القوانين الأوروبية تُلحق الضرر بالشركات الأمريكية.
وهدّد ترامب بفرض رسوم جمركية على أي دولة تفرض تنظيمات تكنولوجية أو ضرائب رقمية يراها "مصممة لإيذاء أو تمييز التكنولوجيا الأمريكية".
وحذّر من أنّه إذا لم تُرفع "إجراءات تمييزية"، فستفرض واشنطن "رسومًا جمركية إضافية كبيرة" على منتجات تلك الدول، بالإضافة إلى قيود على تصدير التقنيات والرقائق الأميركية.
وتابع: "أميركا، وشركات التكنولوجيا الأميركية، لم تعد حصالة نقود، أو ممسحة باب للعالم بعد الآن".
ووردت المتحدثة باسم المفوضية الأوروبية باولا بينو آنذاك: أن "من حق الاتحاد الأوروبي ودوله الأعضاء السيادي تنظيم الأنشطة الاقتصادية على أراضينا بما يتماشى مع قيمنا الديمقراطية".
وأضاف توماس رينيه، المتحدث باسم الاتحاد لشؤون التكنولوجيا: "نرفض بشدة ادعاءات ترامب بأننا نستهدف الشركات الأمريكية".
وأوضح أن القوانين الجديدة ــ مثل قانون الأسواق الرقمية وقانون الخدمات الرقمية ــ لا تستهدف دولةً أو شركةً بعينها، بل تهدف إلى منافسة عادلة وإدارة سليمة للمحتوى الرقمي.
وأكد أن الادعاءات بأنها "رقابة" هي "خاطئة تماماً ولا أساس لها من الصحة".
قانون الذكاء الاصطناعي الأوروبيودخل قانون الذكاء الاصطناعي، أول تشريع شامل في العالم ينظم هذا المجال، حيز التنفيذ في أغسطس 2024، لكن العديد من أحكامه لم تُطبّق بعد. فمعظم الالتزامات المفروضة على الشركات المطوّرة لأنظمة ذكاء اصطناعي عالية الخطورة التي "تُشكل مخاطر جسيمة على الصحة أو السلامة أو الحقوق الأساسية" لن تبدأ سريانها إلا في أغسطس 2026 أو بعد عام من ذلك.
قد تتغير المقترحات قبل نشرها المتوقع في 19 نوفمبر. وبعد النشر، سيتعين على الدول الأعضاء في الاتحاد الأوروبي والبرلمان الأوروبي الموافقة عليها.
انتقل إلى اختصارات الوصول شارك محادثة الاتحاد الأوروبي الذكاء الاصطناعي دونالد ترامب ميتا - فيسبوك الرسوم الجمركية القانون
Loader Search
ابحث مفاتيح اليوم
المصدر: euronews
كلمات دلالية: إسرائيل الذكاء الاصطناعي دونالد ترامب فرنسا تغير المناخ فلسطين إسرائيل الذكاء الاصطناعي دونالد ترامب فرنسا تغير المناخ فلسطين الاتحاد الأوروبي الذكاء الاصطناعي دونالد ترامب ميتا فيسبوك الرسوم الجمركية القانون إسرائيل الذكاء الاصطناعي دونالد ترامب فرنسا تغير المناخ فلسطين حركة حماس الصحة الاتحاد الأوروبي الصين الصراع الإسرائيلي الفلسطيني قانون الذکاء الاصطناعی المفوضیة الأوروبیة الاتحاد الأوروبی دونالد ترامب
إقرأ أيضاً:
دراسة: معظم احتياطات السلامة لأدوات الذكاء الاصطناعي يمكن تجاوزها خلال دقائق قليلة
خلص تقرير جديد إلى أن أنظمة الذكاء الاصطناعي "تنسى" تدابير السلامة كلما طال حديث المستخدم معها، ما يزيد احتمال تقديم معلومات ضارة أو غير ملائمة. تجاوز ضوابط السلامة باتباع سلسلة أسئلة
لا يستغرق الأمر سوى بعض المطالبات البسيطة لتجاوز معظم ضوابط السلامة في أدوات الذكاء الاصطناعي، بحسب تقرير جديد. قيّمت شركة "سيسكو" النماذج اللغوية الكبيرة "LLMs" التي تقف وراء روبوتات الدردشة الشائعة من "OpenAI" و"Mistral" و"Meta" و"Google" و"Alibaba" و"Deepseek" و"Microsoft" لمعرفة عدد الأسئلة التي يحتاجها كل نموذج كي يُفشي معلومات غير آمنة أو إجرامية. وقد قامت بذلك عبر 499 محادثة باستخدام تقنية تُعرف باسم هجمات متعددة الجولات "multi-turn attacks"، حيث يطرح المستخدمون الخبيثون سلسلة من الأسئلة للتحايل على وسائل الحماية. وكان في كل محادثة بين خمسة وعشرة تفاعلات. وقارَن الباحثون نتائج عدة أسئلة لتحديد مدى احتمال امتثال روبوت الدردشة لطلبات تتعلق بمعلومات ضارة أو غير مناسبة. وقد يشمل ذلك كل شيء من مشاركة بيانات خاصة بالشركات إلى تسهيل نشر المعلومات المضللة.
نسب النجاح والمخاطرفي المتوسط، تمكّن الباحثون من انتزاع معلومات خبيثة من 64 في المئة من محادثاتهم عندما وجّهوا إلى روبوتات الدردشة أسئلة متعددة، مقارنة بـ 13 في المئة فقط عند طرح سؤال واحد. وتراوحت نسب النجاح بين نحو 26 في المئة مع "Gemma" من "Google" و93 في المئة مع نموذج "Large Instruct" من "Mistral". وتشير النتائج إلى أن الهجمات متعددة الجولات قد تتيح انتشار محتوى ضار على نطاق واسع أو تمكّن قراصنة من الحصول على "وصول غير مصرح به" إلى معلومات حساسة تخص الشركات، وفقا لسيسكو. وتظهر الدراسة أن أنظمة الذكاء الاصطناعي تُخفق كثيرا في تذكّر قواعد السلامة وتطبيقها خلال المحادثات الأطول، ما يسمح للمهاجمين بتنقيح استفساراتهم تدريجيا وتفادي إجراءات الأمان. وتعمل "Mistral"، مثل "Meta" و"Google" و"OpenAI" و"Microsoft"، على نماذج لغوية كبيرة "LLMs" ذات أوزان مفتوحة "open-weight"، حيث يستطيع الجمهور الاطلاع على معايير السلامة التي تدربت عليها النماذج.
Related بين الحماية والوصاية.. "Character.AI" تغلق أبوابها أمام القُصّر بعد انتحار مراهق ثغرات الأمان ومسؤولية الاستخدامتقول سيسكو إن هذه النماذج غالبا ما تتضمن "ميزات أمان مدمجة أخف" حتى يتمكن المستخدمون من تنزيل النماذج وتكييفها، ما ينقل مسؤولية السلامة إلى من يستخدم المعلومات مفتوحة المصدر لتخصيص نموذجه. وتجدر الإشارة إلى أن "Google" و"OpenAI" و"Meta" و"Microsoft" قالت إنها بذلت جهودا للحد من أي "fine-tuning" خبيث لنماذجها.
تداعيات أوسع وحوادث سابقةتتعرض شركات الذكاء الاصطناعي لانتقادات بسبب تراخي ضوابط السلامة الذي سهّل تكييف أنظمتها لاستخدامات إجرامية. ففي أغسطس، على سبيل المثال، قالت الشركة الأمريكية "Anthropic" إن مجرمين استغلوا نموذجها "Claude" لتنفيذ سرقات واسعة النطاق وابتزاز بيانات شخصية، مطالبين بدفع فدى وصلت أحيانا إلى 500.000 دولار (433.000 يورو).
انتقل إلى اختصارات الوصول شارك محادثة الذكاء الاصطناعي
Loader Search
ابحث مفاتيح اليوم