تزوير صوت بايدن بتقنية الذكاء الاصطناعي في انتخابات نيو هامبشاير التمهيدية
تاريخ النشر: 26th, February 2024 GMT
أقر مستشار الحزب الديمقراطي ستيف كريم بتزوير صوت الرئيس جو بايدن، في مكالمات هاتفية مع ناخبين في ولاية نيو هامبشاير، دعاهم فيها إلى عدم المشاركة في الانتخابات الحزبية الداخلية.
من جهتها، باشرت الشرطة الأمريكية تحقيقا في هذا الأمر بحسب ما أفادت به NBC News.
وقال المستشار ستيف كريمر للمحطة: "قبل يومين من الانتخابات التمهيدية في نيو هامبشاير، بدأت في إجراء مكالمات هاتفية مع 5000 ديمقراطي من المرجح أن يقوموا بالتصويت".
ونقلت المحطة عن كريمر قوله في بيان تلقته: "تم إنشاء النسخة الآلية من صوت الرئيس جو بايدن باستخدام تقنية الذكاء الاصطناعي المتاحة بيسر عبر شبكة الإنترنت".
يشار إلى أن كريمر كان يعمل مع عضو الكونغرس دين فيليبس، وهو منافس بايدن في المعركة من أجل تمثيل الديمقراطيين في الانتخابات الرئاسية لعام 2024.
وقال كريمر إنه يتعين على السلطات اتخاذ خطوات لمنع وقوع حوادث مماثلة في المستقبل.
وأضاف: "باستثمار قدره 500 دولار فقط، يمكن لأي شخص تكرار مكالمتي. هناك حاجة إلى إجراءات عاجلة من جميع الجهات التنظيمية والمنصات."
ستيف كرامر هو ناشط سياسي منذ فترة طويلة، حيث عمل في عشرات الحملات على مدار 20 عاما بما في ذلك الحملة الرئاسية لعام 2020 لمغني الراب المعروف سابقا باسم كاني ويست.
هذا ولم يستجب كريمر في البداية لطلبات متعددة للتعليق. وبعد أيام، قال إنه سينتظر للحديث عن هذا الأمر حتى ينشر مقال رأي. وقال في رسالة نصية: "مقالتي الافتتاحية ستشرح كل شيء".
من جهتها، أعربت حملة فيليبس والمرشح نفسه عن غضبهما عندما سئلا عن تورط كرامر المزعوم، قائلين إنهما لن يعملا معه مرة أخرى أبدا وقد يلجأان إلى إجراءات قانونية إذا تم تأكيد هذه المزاعم.
I’m disgusted that a consultant hired to assist my campaign w/ballot access is alleged to have faked a robocall impersonating Joe Biden.
While I don’t know the person, such behavior is despicable and I trust will be investigated by authorities.
It’s also despicable that the… pic.twitter.com/qqaq5qFpPH
كما كتب فيليبس في حسابه على موقع "إكس" بعد نشر هذه القصة: "أشعر بالاشمئزاز من أن المستشار الذي تم تعيينه لمساعدة حملتي في الوصول إلى بطاقات الاقتراع قد قام بتزوير مكالمة آلية تنتحل شخصية جو بايدن".
"على الرغم من أنني لا أعرف الشخص، إلا أن هذا السلوك حقير وأثق في أنه سيتم التحقيق فيه من قبل السلطات".
المصدر: RT
المصدر: RT Arabic
كلمات دلالية: الحزب الديمقراطي البيت الأبيض انتخابات تزوير الحقائق جو بايدن ذكاء اصطناعي غوغل Google واشنطن
إقرأ أيضاً:
خشية من قدرة الذكاء الاصطناعي على قراءة أفكار البشر
تصاعدت المخاوف من قدرة الذكاء الاصطناعي على قراءة أفكار البشر، عبر تقنيات تحريك الأطراف الصناعية المتصلة بالمخ، وهي تقنية تستخدم لمساعدة المعاقين على التحكم عن بعض في وسائل مساعدة مختلفة، مثل الأطراف الصناعية أو بعض الكمبيوترات المتخصصة أو أجهزة توليد الأصوات.
وتعمل هذه التقنية التي تعرف باسم واجهة الدماغ والحاسوب، عن طريق جهاز خارجي متصل بالدماغ أو شريحة إلكترونية مثبتة على لقشرة الحركية للمخ، من أجل قراءة الإشارات العصبية الصادرة عن المخ، وتحويلها إلى أوامر مباشرة للأجهزة الإلكترونية المتصلة بها.
وتوصل باحثون إلى أن نطاق عمل هذه التقنية في بعض الأحيان يتجاوز الغرض منها، بحيث يتيح قراءة بعض الأفكار التي تراود المستخدم دون قصد منه.
ويقول الباحث ريتشارد أندرسون طبيب الأعصاب بمعهد كاليفورنيا للتكنولوجيا في الولايات المتحدة في تصريحات للموقع الإلكتروني “ساينتفيك أمريكان” المتخصص في الأبحاث العلمية إن “تثبيت أجهزة واجهة الدماغ والحاسوب على الفص الجداري للمخ يؤدي إلى استقبال إشارات عصبية من مناطق كثيرة في العقل البشري، وبالتالي يتوافر عدد كبير من الإشارات التي يمكن فك شفرتها بواسطة هذه الأجهزة”.
ويرى باحثون أن قدرة هذا النوع من الأجهزة على الاطلاع على كثير من الأفكار الداخلية التي تراود الإنسان تثير مخاوف أخلاقية بشأن كيفية التعامل مع البيانات التي يتم جمعها عن المستخدم، لاسيما في حالة ربط هذه الأجهزة بتقنيات الذكاء الاصطناعي.
وتعزز برامج الذكاء الاصطناعي من قدرة المنتجات الإلكترونية الاستهلاكية المستخدمة لقراءة الإشارات العصبية للمخ من الخارج، ويخشى المتخصصون من أن هذه الأجهزة، إذا ما تركت بدون ضوابط تنظيمية، سوف تعطي لشركات التكنولوجيا بيانات حديثة ودقيقة بشأن الاستجابات الداخلية للمستخدمين.
ويرى توم أوكسلي، المدير التنفيذي لشركة “سينكرون” المتخصصة في صناعة واجهات الدماغ والحاسوب في نيويورك أن هذه التقنية الجديدة هي “المستقبل”، ويتوقع أن الرغبة في علاج الأمراض النفسية والاضطرابات العقلية ستؤدي إلى إتاحة المزيد من أجزاء المخ أمام هذه الأجهزة الحديثة بغرض استكشافها.
وأشار في تصريحات لموقع “ساينتفيك أمريكان” إلى أن الذكاء الاصطناعي سيستمر في تحسين قدرات فك الشفرات وتغيير طريقة عمل هذه التقنيات لخدمة المستخدم، وهو ما يقودنا على حد قوله إلى السؤال النهائي وهو: “كيف نجعل هذه التقنية الجديدة آمنة؟”.
وتعتمد المنتجات الاستهلاكية لقياس الإشارات العصبية المتوافرة حاليا على تسجيل الإشارات الكهربائية للمخ، وهي عادة ما تأخذ شكل أجهزة أنيقة مثل سوار للمعصم أو سماعات للأذن أو خوذات مزودة بأقطاب كهربائية تثبت على الرأس.
ورغم أن هذه الأجهزة لا يمكنها فك شفرات العقل، فهي تستطيع أن تعكس صورة المخ بشكل عام عن طريق قياس درجة الانتباه أو الإرهاق أو التوتر. وتوفر بعض الشركات بالفعل أجهزة تكشف للمستخدم هذه المؤشرات الحيوية بغرض المساعدة في تحسين الأداء الرياضي أو التأمل أو زيادة الانتاجية وما إلى ذلك.
ويقول مارسيلو إينكا، خبير أخلاقيات العلوم العصبية بالجامعة التقنية في ميونخ بألمانيا إنه من المتوقع على نطاق واسع أن يسمح الذكاء الاصطناعي في المستقبل بسبر أغوار الأنشطة العقلية للإنسان بشكل أكبر.
وأوضح أن وسائل تسجيل المخططات الكهربائية للمخ تسمح بقياس التغيرات الكهربائية الضئيلة التي تطرأ في مخ الإنسان خلال أجزاء من الثانية عند رؤية عامل محفز معين. ومثل هذه الإشارات في حالة تحليلها بواسطة الذكاء الاصطناعي سوف تكشف عن درجة الانتباه وآلية اتخاذ القرار حيال تلك المحفزات.
وقد توصل إينكا خلال دراسة أجريت عام 2018 إلى أن معظم أجهزة واجهات المستخدم والكمبيوتر المتاحة آنذاك لا تراعي استخدام قنوات آمنة لتبادل البيانات التي يتم تسجيلها من المخ البشري ولا تطبيقات حديثة لحماية الخصوصية، ويقول إينكا: “أعتقد أن هذا الوضع لم يتغير إلى الآن.
وفي عام 2024، أجرت منظمة “نيورو رايتس” غير الربحية في نيويورك والمعنية بأخلاقيات التعامل مع البيانات العصبية دراسة تحليلية لسياسات التعامل مع البيانات المطبقة في ثلاثين شركة عاملة في مجال المنتجات الاستهلاكية الخاصة بقياس الإشارات العصبية، وتوصلت إلى أن الغالبية العظمى من هذه الشركات تسيطر على هذه البيانات بشكل كامل، وهو ما يعني أن بإمكانها أن تفعل بها ما تشاء بما في ذلك بيعها.
وفي استجابة لمثل هذه المخاوف، أصدرت حكومات بعض الدول مثل تشيلي، فضلا عن النواب في أربع ولايات أمريكية قوانين تضفي صفة الحماية لأي نوع من التسجيلات يتم الحصول عليها بواسطة واجهات المستخدم والكمبيوتر، ولكن إينكا ونيتا فرحاني خبيرة الأخلاقيات في جامعة ديوك بولاية نورث كارولينا، أعربا عن المخاوف من أن مثل هذه القوانين غير كافية لأنها تركز على المعلومات في صورتها الخام، وليس على النتائج التحليلية التي يتم استخلاصها عن طريق الربط بين البيانات العصبية وبين التقنيات الرقمية الحديثة، ويعتقد أن البيانات التحليلية الخاصة بالصحة العقلية لشخص ما يمكن بيعها لطرف ثالث واستخدامها للتمييز ضده بل وحتى ابتزازه.
ويقول إينكا إن ما يعرف باسم “اقتصاد البيانات أصبح بالفعل يشكل انتهاكا للخصوصية والحرية المعرفية”، مشيرا إلى أن إتاحة البيانات العصبية للبشر تشبه “إعطاء منشطات لاقتصاد البيانات القائم بالفعل”.