الاتحاد الأوروبي يهاجم آبل لتأخير الذكاء الاصطناعي
تاريخ النشر: 29th, June 2024 GMT
من الآمن أن نقول إن شركة آبل والمفوضية الأوروبية ليسا صديقين حميمين تمامًا. كان الجانبان على خلاف حول امتثال شركة آبل – أو عدم امتثالها المزعوم – لقانون الأسواق الرقمية للاتحاد الأوروبي (DMA)، وهو قانون مصمم لكبح جماح قوة شركات التكنولوجيا الكبرى.
قالت شركة Apple الأسبوع الماضي إنها ستؤخر طرح ميزات معينة في الاتحاد الأوروبي، بما في ذلك أدوات Apple Intelligence AI، بسبب مخاوف "من أن متطلبات التشغيل البيني لـ DMA قد تجبرنا على التنازل عن سلامة منتجاتنا بطرق تخاطر بخصوصية المستخدم و أمن البيانات.
وقالت مفوضة المنافسة بالاتحاد الأوروبي مارجريت فيستاجر، في منتدى، إن الدعوة إلى التراجع عن طرح Apple Intelligence في الاتحاد الأوروبي هي "إعلان مذهل ومفتوح أنهم يعرفون بنسبة 100 بالمائة أن هذه طريقة أخرى لتعطيل المنافسة حيث لديهم معقل بالفعل". وأضاف حدث أوروبا، وفقًا لـ Euractiv، أن "النسخة القصيرة من DMA" تعني أن الشركات يجب أن تكون مفتوحة للمنافسة لمواصلة العمل في المنطقة.
لا أقصد القفز للدفاع عن شركة Apple هنا، ولكن من المؤكد أن هذه التعليقات ستثير دهشة أو اثنتين، خاصة بعد أن قالت Vestager أيضًا إنها "شعرت شخصيًا بالارتياح الشديد لأنني لن أحصل على خدمة محدثة بالذكاء الاصطناعي على جهاز iPhone الخاص بي". تنوي شركة Apple جلب Apple Intelligence إلى أوروبا على نطاق أوسع، لكنها تتبع نهجًا حذرًا مع التكنولوجيا في تلك المنطقة بسبب "الشكوك التنظيمية" والتأكد من أنها لن تضطر إلى التنازل عن سلامة المستخدم.
في الوقت الحالي، تجري المفوضية الأوروبية تحقيقات متعددة مع الشركة بشأن الانتهاكات المحتملة لـ DMA. واتهمت شركة Apple هذا الأسبوع بانتهاك أحكام القانون المناهضة للتوجيه من خلال منع مطوري التطبيقات من إبلاغ المستخدمين بحرية حول خيارات الدفع البديلة خارج النظام البيئي للشركة. وإذا ثبتت إدانتها، فقد تتعرض شركة أبل لغرامة تصل إلى 10% من إيراداتها السنوية العالمية. واستنادًا إلى مبيعاتها في عام 2023، فقد تصل عقوبة ذلك إلى 38 مليار دولار. ويمكن أن تتضاعف نسبة الغرامة في حالة تكرار المخالفات.
في وقت سابق من هذا العام، قبل دخول DMA حيز التنفيذ، فرضت المفوضية الأوروبية غرامة قدرها 1.8 مليار يورو (1.95 مليار دولار) على شركة Apple بسبب انتهاكها لقواعد مكافحة التوجيه السابقة. وفقًا للمفوضية، منعت شركة Apple تطبيقات بث الموسيقى المنافسة من إخبار المستخدمين أنه يمكنهم دفع مبلغ أقل مقابل الاشتراكات إذا قاموا بالتسجيل خارج تطبيقات iOS. لقد طعنت شركة أبل في الغرامة.
المصدر: بوابة الوفد
كلمات دلالية: الاتحاد الأوروبی شرکة Apple
إقرأ أيضاً:
خلال محاكمة.. الذكاء الاصطناعي يحيل إلى مرجع غير موجود
في محاكمة بين "أنثروبيك" للذكاء الاصطناعي وأصحاب حقوق ملكية فكرية، تضمنت مذكرة قضائية للدفاع عن الشركة الناشئة إشارة إلى مرجع وهمي لا وجود له.
بدأ الذكاء الاصطناعي يغير تدريجيا طريقة العمل في المجال القضائي. فبينما تسهّل هذه الأداة البحث في السوابق القضائية، يجب أن تخضع مخرجاتها للمراقبة بسبب قدرتها على الهلوسة.
وقد برز هذا مؤخرًا في محاكمة بين شركة "أنثروبيك" للذكاء الاصطناعي وشركات موسيقية. في أكتوبر 2023، طلبت شركات موسيقى من القضاة الاتحاديين في ولاية كاليفورنيا حظر استخدام دليلها الموسيقي لتدريب نماذج الذكاء الاصطناعي الخاصة بشركة "أنثروبيك".
رفض القضاة هذا الطلب في مارس 2025، معتبرين أنه لا يوجد دليل على ضرر لا يمكن إصلاحه. بعد ذلك، رفع المدعون دعوى قضائية أخرى تتعلق بانتهاك حقوق الطبع والنشر. تكمن إحدى نقاط الخلاف الرئيسية في هذه القضية في فحص حجم العينة المتفاعلة مع أداة "كلود" للذكاء الاصطناعي التابعة لشركة "أنثروبيك"، لتحديد وتيرة إعادة إنتاج الذكاء الاصطناعي لكلمات الأغاني المحمية أو توليدها.
مرجع وهمي
قدمت أوليفيا تشين، عالمة البيانات في شركة "أنثروبيك"، مذكرة إلى المحكمة تُجادل فيها بأن عينة من مليون تفاعل مستخدم كافية لتقديم "معدل انتشار معقول" لظاهرة نادرة: مستخدمو الإنترنت يبحثون عن كلمات الأغاني. وقدّرت أن هذه الحالة لا تُمثل سوى 0.01% من التفاعلات. وفي شهادتها، استشهدت بمقال أكاديمي نُشر في مجلة "الإحصائي الأميركي" تبيّن لاحقا أنه غير موجود.
طلب المدعون من المحكمة استدعاء أوليفيا تشين ورفض أقوالها بسبب الإحالة إلى هذا المراجع الزائف. ومع ذلك، منحت المحكمة شركة "أنثروبيك" وقتًا للتحقيق. وقد وصف محامي الشركة الناشئة الحادثة بأنها "خطأ بسيط في الاستشهاد"، وأقرّ بأن أداة "كلود" للذكاء الاصطناعي استُخدمت "لتنسيق ثلاثة مراجع ببليوغرافية على الأقل بشكل صحيح". وفي هذا السياق، اخترع الذكاء الاصطناعي مقالاً وهمياً، مع مؤلفين خاطئين لم يعملوا معًا قط.
تجنب أخطاء الذكاء الاصطناعي
تُسلّط هذه الحادثة الضوء على الانتشار المُقلق للأخطاء الناتجة عن الذكاء الاصطناعي في الإجراءات القانونية، وهي ظاهرة متنامية تُعرّض الشركات لمخاطر جسيمة، لا سيما عندما يعتمد محاموها على هذه الأدوات لجمع المعلومات وصياغة الوثائق القانونية.
يقول برايان جاكسون، مدير الأبحاث في مجموعة Info-Tech Research Group "خلق استخدام الذكاء الاصطناعي نوعًا من الكسل الذي أصبح مصدر قلق في المجال القانوني". ويضيف: "لا ينبغي استخدام أدوات الذكاء الاصطناعي كحل شامل لإنتاج الوثائق اللازمة للملفات القضائية".