الاقتصاد نيوز ـ متابعة

وافقت الدول الأعضاء في الاتحاد الأوروبي، على تشريع غير مسبوق على المستوى العالمي لتنظيم الذكاء الاصطناعي بعد مفاوضات مكثفة حول التوازن بين حرية الابتكار والحفاظ على الأمن.

وأعلن سفراء الدول السبع والعشرين "بالإجماع" عن الاتفاق السياسي الذي تم التوصل إليه في ديسمبر بين الدول وأعضاء البرلمان الأوروبي، على ما أعلنت الرئاسة البلجيكية لمجلس الاتحاد الأوروبي.

وكانت المفوضية الأوروبية قدمت مشروعها الذي يحمل عنوان "قانون الذكاء الاصطناعي" في نيسان 2021.

وقد أعطاها ظهور برنامج "تشات جي بي تي" المطور من شركة "أوبن إيه آي" الناشئة في كاليفورنيا، في نهاية عام 2022، والقادر على كتابة أطروحات أو قصائد أو ترجمات في بضع ثوانٍ، بُعداً جديداً، ما ساهم في تسريع المناقشات.

وكشف هذا النظام، على غرار أنظمة أخرى قادرة على إنشاء الأصوات أو الصور، أمام عموم المستخدمين عن الإمكانات الهائلة للذكاء الاصطناعي.

ولكن هذه التكنولوجيا تترافق أيضاً مع مخاطر مختلفة، تشمل نشر صور زائفة تبدو واقعية للغاية، ما يثير مخاوف من الإمكانات الكبيرة للتلاعب بالرأي العام.

وفيما ثمة قواعد تستهدف الذكاء الاصطناعي في بلدان عدة، بينها الصين على سبيل المثال، فإن الإطار القانوني الأوروبي يتمايز لناحية نطاقه.

ورحب المفوض الأوروبي المسؤول عن هذا الملف تييري بريتون، بالتشريع "التاريخي وغير المسبوق على مستوى العالم".

وقال بريتون الجمعة: "لقد أثار قانون الذكاء الاصطناعي اهتماماً كبيراً، لأسباب محقة! اليوم، وافقت الدول على الاتفاق السياسي الصادر في ديسمبر، معترفة بالتوازن المثالي الذي وجده المفاوضون بين الابتكار والأمن".

وقد أبدت باريس وبرلين حرصاً حتى النهاية على أن يحمي التشريع الشركات الناشئة المتخصصة في الذكاء الاصطناعي، حتى لا يمنع ظهور "أبطال أوروبيين" في هذا المجال في المستقبل.

وقال دبلوماسيون لوكالة فرانس برس إن المخاوف تم أخذها في الاعتبار قبل وضع اللمسات النهائية على النص. وبذلك حصل البَلدان على توضيحات بشأن تطبيقه.

يوم الثلاثاء، أعرب وزير التكنولوجيا الرقمية الألماني فولكر فيسينغ عن سروره "لأننا حققنا تحسينات للشركات الصغيرة والمتوسطة الحجم، وتجنبنا المتطلبات غير المتناسبة، وتمكنّا من أن نضمن الحفاظ على القدرة التنافسية على المستوى الدولي".

واعتبر من جانبه وزير الاقتصاد الألماني روبرت هابيك الجمعة أن "هذا التشريع يتيح إمكان استغلال الإمكانات الهائلة للذكاء الاصطناعي، مع أخذ المخاطر في الاعتبار. وفي تطبيقه، سنؤكد على سهولة الابتكار والوضوح القانوني للشركات والحاجة إلى هياكل غير بيروقراطية".

فقد قال المسؤول عن شؤون أوروبا في مجموعة الضغط "سي سي آي إيه" الناشطة في القطاع بونيفاس دو شامبري الجمعة إن "الكثير من هذه القواعد الجديدة لا تزال غامضة ويمكن أن تبطئ تطوير التطبيقات المبتكرة ونشرها".

وحذر من أن تنفيذ التشريع "بشكل جيد سيكون أمراً حاسما" حتى لا يفرض "عبئا" على القدرة التنافسية.

المصدر: وكالة الإقتصاد نيوز

كلمات دلالية: كل الأخبار كل الأخبار آخر الأخـبـار الذکاء الاصطناعی

إقرأ أيضاً:

كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟

في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.

بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.

فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.

والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.

ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».

ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.

إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.

بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).

مقالات مشابهة

  • الخارجية تُدين مغالطات استنتاجات مجلس الاتحاد الأوروبي بشأن اليمن
  • العالم في الرياض.. قادة الابتكار يصيغون مبادئ عصر الذكاء الاصطناعي
  • هل يكتب الذكاء الاصطناعي فصلاً جديداً في قصة لبنان؟
  • الاتحاد الأوروبي يعين ممثلا خاصا جديدا لعملية السلام
  • الشيباني: نحقق مع شعبنا إنجازاً تاريخياً جديداً برفع عقوبات الاتحاد الأوروبي
  • كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
  • في موسم جدة 2025.. ألعاب الابتكار والذكاء الاصطناعي تجذب زوّار “فيوتشر رش”
  • ألعاب الابتكار والذكاء الاصطناعي تجذب زوّار “فيوتشر رش” في موسم جدة
  • ألعاب الابتكار والذكاء الاصطناعي تجذب زوّار «فيوتشر رش» في موسم جدة
  • ألعاب الابتكار والذكاء الاصطناعي تجذب زوّار "فيوتشر رش" في موسم جدة