يجتمع قادة سياسيون ومسؤولون في شركات التكنولوجيا العملاقة وخبراء في الذكاء الاصطناعي، الأربعاء، بالمملكة المتحدة في انطلاق القمة العالمية الأولى حول المخاطر المترتبة عن التطور المتسارع لهذه التقنية الثورية.

وتثير الثورة التكنولوجية الحالية الكثير من الآمال والتطلعات، لكن تحيط بها أيضاً مخاوف كبيرة ستكون في قلب هذا الاجتماع في بليتشلي بارك مانور، وهو مركز ذو رمزية كبيرة كان يُستخدم في فك شفرات الحرب العالمية الثانية في وسط بريطانيا.

في اليوم الأول، سيناقش المشاركون المخاطر المحتملة لبرامج الذكاء الاصطناعي التوليدي المتطورة، مثل "Chat GPT".

ومن المتوقع بعد ذلك أن يجتمع ممثلون سياسيون رفيعو المستوى، الخميس، بينهم رئيسة المفوضية الأوروبية، أورسولا فون دير لايين، والأمين العام للأمم المتحدة، أنطونيو غوتيريش، ونائبة الرئيس الأميركي، كامالا هاريس، ورئيسة الوزراء الإيطالية، جورجيا ميلوني، وهي الوحيدة التي ستحضر القمة من بين زعماء بلدان مجموعة السبع.

ورغم التوترات والمخاوف من قيامها بعمليات تجسس، ستكون الصين ممثَّلة أيضاً، لكن مستوى تمثيلها لا يزال غير معروف.

ومن المتوقع أيضاً أن يشارك في الاجتماع رواد أعمال في شركات التكنولوجيا الأميركية العملاقة، من بينهم سام ألتمان، وإيلون ماسك، اللذان شاركا في تأسيس "Open AI"، الشركة الناشئة المطورة لـ"Chat GPT".

وكان ماسك، رئيس شبكة "X"، قد طالب في مارس الماضي، بـ"استراحة" في البحوث بتقنيات الذكاء الاصطناعي الأكثر تقدماً، بينها "Chat GPT 4"، مع مئات الخبراء العالميين الآخرين.

وسيجري الملياردير الأميركي محادثات مع رئيس الوزراء البريطاني، ريشي سوناك، بعد القمة.

محادثات "مغلقة"

وفي غياب سياسات مشتركة، تريد المملكة المتحدة أن تكون قوة دافعة للتعاون الدولي حول هذا الموضوع، الذي يهزّ العالم بأسره.

وتأمل الحكومة البريطانية في التوصل، على الأقل، إلى "أول إعلان دولي حول طبيعة" مخاطر الذكاء الاصطناعي. وتقترح أيضاً إنشاء مجموعة من الخبراء في مجال الذكاء الاصطناعي بناءً على نموذج الهيئة الحكومية الدولية المعنية بتغير المناخ المسؤولة عن متابعة القضايا المناخية.

وقد حقق الذكاء الاصطناعي التوليدي، القادر على إنتاج نص أو أصوات أو صور بناءً على طلب بسيط في غضون ثوانٍ، تقدّماً مبهراً في السنوات الأخيرة، ويُتوقع أن تظهر الأجيال الجديدة من هذه النماذج في الأشهر المقبلة.

وحذرت الحكومة البريطانية في تقرير نُشر الخميس، من أن هذه التكنولوجيا التي تثير آمالا كبيرة في الطب أو التعليم، قد تشكل أيضاً "تهديداً وجودياً" من خلال زعزعة استقرار مجتمعات، عبر إتاحتها تصنيع أسلحة أو الإفلات من السيطرة البشرية.

وقالت وزيرة التكنولوجيا البريطانية، ميشال دونيلان، التي من المقرر أن تفتتح اجتماع بليتشلي بارك، في بيان إن "المخاطر التي يشكلها الذكاء الاصطناعي المتقدم خطيرة".

وأَشارت إلى أن "هذه القمة تمنحنا فرصة للتأكد من أنّ لدينا الأشخاص المناسبين ذوي الخبرة المناسبة، الذين يجتمعون حول الطاولة لمناقشة كيفية التخفيف من هذه المخاطر في المستقبل".

ويكمن التحدي في القدرة على تحديد الضمانات من دون إعاقة الابتكار لمختبرات الذكاء الاصطناعي وعمالقة التكنولوجيا.

وقد اختار الاتحاد الأوروبي والولايات المتحدة طريق التنظيم، إذ أعلن الرئيس الأميركي، جو بايدن، الاثنين، عن قواعد ومبادئ تهدف إلى "إظهار الطريق" الواجب سلوكه في هذا المجال على نطاق دولي.

في الأسبوع الماضي، وافقت شركات عدة مثل "Open AI" و"meta" و"Google DeepMind"، على الإعلان عن بعض قواعدها الأمنية الخاصة بالذكاء الاصطناعي بناءً على طلب المملكة المتحدة.

وفي رسالة مفتوحة موجهة إلى ريشي سوناك، أعرب حوالى مئة منظمة دولية وخبراء وناشطين، عن استيائهم من عقد هذه القمة بصورة "مغلقة"، مع هيمنة عمالقة التكنولوجيا عليها وحضور محدود للمجتمع المدني.

وقالت الأستاذة المشاركة في مركز بيركمان كلاين من جامعة هارفارد ساشا كوستانزا-شوك، خلال مؤتمر صحافي "يجب أن نتوقف عن التفكير في أن الشركات الخاصة الساعية للربح، هي المالك الوحيد الممكن والشرعي لأنظمة الذكاء الاصطناعي التي تغير حياتنا وطريقة عملنا".

المصدر: سكاي نيوز عربية

كلمات دلالية: ملفات ملفات ملفات الحرب العالمية الثانية بريطانيا أنطونيو غوتيريش كامالا هاريس جورجيا ميلوني إيلون ماسك الذكاء الاصطناعي ريشي سوناك المملكة المتحدة مخاطر الذكاء الاصطناعي الذكاء الاصطناعي التوليدي الذكاء الاصطناعي قمة الذكاء الاصطناعي خطر الذكاء الاصطناعي بريطانيا الحرب العالمية الثانية بريطانيا أنطونيو غوتيريش كامالا هاريس جورجيا ميلوني إيلون ماسك الذكاء الاصطناعي ريشي سوناك المملكة المتحدة مخاطر الذكاء الاصطناعي الذكاء الاصطناعي التوليدي تكنولوجيا الذکاء الاصطناعی

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • صحة كوردستان تكشف حقيقة وفاة شخص بسبب الذكاء الاصطناعي
  • تمكين الكفاءات السعودية في عصر الذكاء الاصطناعي
  • متحدث الحكومة: "الرواد الرقميون" مبادرة للمستقبل لبناء قدرات الشباب في التكنولوجيا والذكاء الاصطناعي
  • تراجع الهيمنة الأمريكية في سباق الذكاء الاصطناعي
  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • أخبار التكنولوجيا | سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي.. 4 ميزات مبتكرة تغير طريقة تواصلك على واتساب
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟