أعرب مسؤولون عن الانتخابات في الولايات المتحدة عن تخوفهم من تأثير أدوات الذكاء الاصطناعي على العملية الانتخابية التي تحل في نوفمبر المقبل.

وتقول صحيفة "بوليتيكو" في تقرير إن "مكالمة كاذبة من وزير الخارجية يخبر العاملين في مراكز الاقتراع بعدم الحاجة إليهم في يوم الانتخابات أو فيديو مزيف لمدير انتخابات الولاية وهو يمزق أوراق الاقتراع قبل فرزها أو بريد إلكتروني تم إرساله إلى مسؤول انتخابي بالمقاطعة يحاول التصيد الاحتيالي لتسجيل الدخول إلى قاعدة بيانات الناخبين الخاصة به، كلها أدوات يمكن استخدامها خلال العملية الانتخابية.

إقرأ المزيد حروب الذكاء الاصطناعي.. ماسك يرفع دعوى قضائية ضد OpenAI ورئيسها

وتضيف الصحيفة أن مسؤولي الانتخابات يشعرون بالقلق من أن ظهور الذكاء الاصطناعي التوليدي يجعل هذا النوع من الهجوم على العملية أسهل قبل انتخابات نوفمبر، وهم يبحثون عن طرق لمكافحته.

ووفق ما أوردت صحيفة "بوليتيكو"، يعد العاملون في مجال الانتخابات أهدافا معرضة للخطر بشكل فريد مع أنهم أصلا غير محددين تماما، بحيث لا يعرف أحد من هم فعلا، علما بأن معظم الأمريكيين لا يزالون يثقون بمسؤولي الانتخابات على نطاق واسع وقد يكون التزييف الذي تم تنفيذه جيدا خطيرا للغاية ومن الصعب مواجهته.

وبحسب الصحيفة، فإن أحد التهديدات الخاصة يتمثل في انتحال شخصيات مسؤولي الانتخابات أنفسهم عبر الذكاء الاصطناعي، واستخدام ذلك لتضليل عاملين آخرين في الاستحقاق.

وقالت سكرتيرة ولاية نيو مكسيكو، ماغي تولوز أوليفر، عن مقاطع الفيديو المزيفة أو غيرها من المعلومات المضللة التي يتم نشرها حول الانتخابات: "أتوقع بنسبة 100 بالمائة أن يحدث ذلك في هذه الدورة.. سيكون سائدا في الاتصالات الانتخابية هذا العام".

وعلى سبيل المثال، يمكن لسكرتير ولاية مزيف أن يدفع بتعليمات خاطئة  يوم الانتخابات، مما يؤدي إلى إرباك مديري الانتخابات المحليين أو العاملين في مراكز الاقتراع وتعطيل التصويت أو يمكن استخدام الذكاء الاصطناعي بـ"محاولة الوصول غير المصرح به إلى أنظمة مهمة" عبر محاكاة شخصية مسؤول ما، وفق الصحيفة.

إقرأ المزيد تزوير صوت بايدن بتقنية الذكاء الاصطناعي في انتخابات نيو هامبشاير التمهيدية

وفي سياق التخوف من تأثير الذكاء الاصطناعي على العملية الانتخابية، كشف سكرتيرو الولايات الأميركية، خلال الاجتماع الشتوي للرابطة الوطنية لهم، الشهر الماضي، أنهم بدأوا بالفعل في تطبيق سيناريوهات الذكاء الاصطناعي في تدريباتهم مع المسؤولين المحليين.

وتوقع عدد منهم ظهور مخاطر محتملة بشأن معلومات خاطئة يغذيها الذكاء الاصطناعي، في خطط التواصل مع الناخبين، وفق الصحيفة.

وتوقعت سكرتيرة ولاية نيو مكسيكو، ماغي تولوز أوليفر، ظهور مقاطع فيديو مزيفة، أو سواها من المعلومات المضللة عن الانتخابات، وقالت: "أتوقع بنسبة 100 بالمائة أن يحدث تزييف في الدورة الانتخابية لهذا العام".

وبحسب الصحيفة، فقد أمضى مسؤولو الانتخابات السنوات الماضية في محاولة معرفة كيفية مكافحة البيئة غير الصحية، التي تهز من ثقة الجمهور في النظام الانتخابي، لكن مسؤولي الانتخابات يشعرون بالقلق حاليا من أن الذكاء الاصطناعي "سيجعل هذا التحدي أكثر صعوبة".

وتطرقت الصحيفة إلى تجربة سكرتير ولاية أريزونا أدريان فونتس، الذي نشر أواخر العام الماضي تدريبا شمل نسخة مزيفة له تنشر معلومات كاذبة.

وأشارت إلى أن فونتس أكد على أن "أدوات الذكاء الاصطناعي لديها الكثير من الإمكانات لإحداث الكثير من الضرر".

إقرأ المزيد قراصنة الإنترنت يطورون مهاراتهم بسرعة وقد يهددون انتخابات 2024 من جديد!

وفي السياق، بدأت وكالة الأمن السيبراني وأمن البنية التحتية العمل على دمج سيناريوهات الذكاء الاصطناعي في التدريبات الانتخابية، وذلك ضمن جهود حماية "البنية التحتية الحيوية" والأنظمة الانتخابية.

وقالت كبير مستشاري وكالة الأمن السيبراني وأمن البنية التحتية، كيت كونلي، إن "الوكالة تواصلت مباشرة من مسؤولي الانتخابات بشأن "المخاطر المحتملة للذكاء الاصطناعي التوليدي وقدرته على جعلهم أهدافا شخصية". 

وأضافت: "يتمتع الذكاء الاصطناعي التوليدي بالقدرة على تكثيف المخاطر السيبرانية والمادية والتشغيلية، لذلك أجرت الوكالة، وستستمر في إجراء تمارين الطاولة والدورات التدريبية بشأن الذكاء الاصطناعي".

ونقلت الصحيفة عن الموظفة والمسجلة في مقاطعة ويلد بولاية كولورادو، كارلي كوبس، قولها: "إننا نرصد رسائل بريد إلكتروني احتيالية أكثر ذكاء، لأن الذكاء الاصطناعي يجعلها أكثر تقدما بعض الشيء".  

ووفق الصحيفة، كثف عدد من مديري الانتخابات، خططهم الخاصة بحملات التثقيف العام كما يخططون أيضا "لمضاعفة برامج وتكتيكات مكافحة المعلومات المضللة التي طوروها في السنوات الأخيرة".

المصدر: "بوليتيكو"

المصدر: RT Arabic

كلمات دلالية: البيت الأبيض السلطة القضائية انتخابات جو بايدن دونالد ترامب ذكاء اصطناعي واشنطن الذکاء الاصطناعی فی

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • تليفونك بيراقبك.. كيف تجمع أدوات الذكاء الاصطناعي بياناتك؟
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟
  • أمين عام حماة الوطن: لدينا رصيد شعبي لحصد نسبة كبيرة من مقاعد الشيوخ في الانتخابات المقبلة
  • تطوير أول دمية باربي بالذكاء الاصطناعي
  • قاض أمريكي يمنع ترامب من تنفيذ تعديلات على نظام الانتخابات الاتحادية
  • تأهيل 10 آلاف شخص في الذكاء الاصطناعي بحلول 2030