يأتي موسم الانتخابات الأميركية، هذا العام، مقترنا بتطور هائل في تقنيات الذكاء الاصطناعي، منذ ظهور منصة الذكاء الاصطناعي التوليدي "تشات جي بي تي" التابعة لشركة "أوبن إيه آي" في نوفمبر الماضي.

وانتشرت لقطات مزيفة بتقنية الذكاء الاصطناعي، على مدار الأشهر الأخيرة، لاقت رواجا كبيرا، مثل مقطع فيديو غزو الصين لتايوان، وآخر لتدفق مجموعات من المهاجرين عبر الحدود بين المكسيك والولايات المتحدة في تحذير مفترض من أصحابه لما يرون أنه قد يحدث بعد انتخاب الرئيس جو بايدن.

توجهات تكنولوجية "ستغير حياتنا" في 2024 خلال العام 2023 سيطرت توجهات الذكاء الاصطناعي على صناعة التكنولوجيا، والتي شهدت تنافسا في تطويرها من قبل كبار اللاعبين في سيلكون فالي.

وظهرت صور للرئيس السابق، دونالد ترامب، يركض وتلاحقه قوات أمنية، وصورة أخرى لمقر وزارة الدفاع الأميركية (البنتاغون) تشتعل فيه النيران، وجميعها مزيفة بتقنية الذكاء الاصطناعي.

وظهر هذا الأمر جليا في انتخابات تايوان الأخيرة، إذ تم استخدام تكنولوجيا التزييف العميق ومقاطع الفيديو والصور والمقاطع الصوتية التي تنتج بالذكاء الاصطناعي.

كيف تستهدف حملات التضليل الصينية انتخابات تايوان الرئاسية؟ رغم مخاوف تايوان التي أعربت عنها أواخر العام الماضي من أي تحرك عسكري أو سياسي صيني في الوقت الذي تشهد فيه البلاد انتخابات هامة، إلا أن بكين اتبعت نهجا مختلفا باستخدام حملات التضليل وأخبار مفبركة للتأثير على مسار الانتخابات.

وأثارت هذه الصور المزيفة، التي تبدو قريبة جدا من الواقع مخاوف من تضليل الرأي العام خاصة أثناء الانتخابات، وهو ما أثار انتباه المشرعين الأميركيين، وعقد مجلس الشيوخ، في مايو الماضي، جلسة استماع عرض فيها أعضاء المجلس مخاوفهم من انتحال شخصياتهم الحقيقية لإصدار بيانات ملفقة.

وحضر هذه الجلسة رئيس "أوبن إيه آي"، سام ألتمان، الذي قال إن التدخل الحكومي "سيكون مهما وحاسما للتخفيف من مخاطر أنظمة الذكاء الاصطناعي المتزايدة بقوة". وقال إنه يشعر بقلق بالغ من قدرة التقنية على تعريض نزاهة الانتخابات للخطر.

وفي ذلك الوقت، أصدرت مجموعة من خبراء التقنية بيانا طالبوا فيه بـ"العمل على تخفيف خطر انقراض البشرية من جراء الذكاء الاصطناعي"، وجعله "أولوية مع مخاطر أخرى مثل الجائحات والحرب النووية".

وشملت قائمة الموقعين ألتمان، وجيفري هينتون، عالم الكمبيوتر المعروف بلقب الأب الروحي للذكاء الاصطناعي، وكيفن سكوت، الرئيس التنفيذي للتكنولوجيا في شركة مايكروسوفت، وآخرين.

إجراءت جديدة

ومع قرب موسم الانتخابات في الولايات المتحدة، هذا العام، أعلنت شركة "أوبن إيه آي" عن إجراءات جديدة لضمان نزاهة العملية.

وتشمل التعديلات الجديدة تطبيقي "تشات جي بي تي" الذي يتيح إمكانية إنشاء نصوص أو صور أو أصوات أو مقاطع فيديو في ثوان بطلب من المستخدم، وكذلك برنامج الصور "دال- إي".

وأثارت مثل هذه الأدوات مخاوف من إمكانية استخدامها للتلاعب بالناخبين بنشر قصص إخبارية كاذبة وصور ومقاطع فيديو مزيفة يمكن أن تؤثر على عمليات التصويت.

وقالت صحيفة وول ستريت جورنال إن الشركة ستحظر استخدام أدواتها للتلاعب في الحملات الانتخابية، وتشمل هذه الإجراءات حظر إنشاء روبوتات دردشة تنتحل شخصية المرشحين وغيرهم من الأشخاص الحقيقيين، أو روبوتات الدردشة التي تتظاهر بأنها تتبع حكومات، وستحظر أيضا التطبيقات التي تدعو الناخبين إلى عدم التصويت.

وابتكرت "أوبن إيه آي" طريقة لمساعدة الناخبين على تقييم ما إذا كانت الصور تم إنشاؤها بواسطة الذكاء الاصطناعي دال- إي.

وأوردت وكالة رويترز، قبل أيام، أن الشركة ستضيف الرمز "cr" إلى الصور التي يتم إنشاء الصور بواسطة برنامج "دال- إي"، وستحظر إنشاء صور لأشخاص حقيقيين على هذا البرنامج، بما في ذلك المرشحين السياسيين، وستوجه الناخبين إلى موقع  CanIVote.org عند طرح استفسارات تتعلق بالانتخابات. 

وستعمل الشركة مع الرابطة الوطنية لوزراء الخارجية، وهي منظمة تركز على تعزيز الديمقراطية.

وسبقت خطوة "أوبن إيه آي" خطوات أخرى لشركة "غوغل" و"ميتا" قبل الانتخابات ستشهدها الولايات المتحدة والهند وإندونيسيا وجنوب أفريقيا والمكسيك، هذا العام،

وأعلنت غوغل، الشهر الماضي، أنها ستقيد الاستفسارات المتعلقة بالانتخابات على برنامج الدردشة "بارد".

وأعلنت "ميتا"، المالكة لمنصة فيسبوك، قيودا مماثلة على الإعلانات السياسية.

ويقول موقع "ذا فيرج" التقني الأميركي إن المقترحات الأخيرة لـ"أوبن آي إيه" قد لا تنجح في مكافحة المعلومات المضللة في موسم الانتخابات بالنظر إلى أن "الذكاء الاصطناعي في حد ذاته أداة سريعة التغير وتفاجئنا بانتظام".

ودعا "ذا فيرج" إلى ضرورة "التشكك في كل خبر أو صورة تبدو جيدة جدا لدرجة يصعب تصديقها"، والتدقيق على غوغل من صحة الأخبار التي تبدو غير حقيقية.

وتقول رويترز إنها عندما حاولت، العام الماضي، إنشاء صور لترامب وبايدن باستخدام "دال- إي" تم حظر الطلب، وظهرت رسالة تقول إنه "قد لا يتبع سياسة المحتوى الخاصة بنا"، ومع ذلك، تمكنت رويترز من إنشاء صور لما لا يقل عن 12 سياسيا أميركيا آخرين، من بينهم نائب الرئيس السابق، مايك بنس.

المصدر: الحرة

كلمات دلالية: الذکاء الاصطناعی أوبن إیه آی

إقرأ أيضاً:

السباق الاستخباراتي على الذكاء الاصطناعي

في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.

واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.

اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of list

وفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.

وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.

سباق مفتوح

وفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.

لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.

الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام

كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.

إعلان

ففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.

وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.

منافسون آخرون

ليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".

وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.

أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.

ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".

وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.

ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.

لعبة تجسس بالذكاء الاصطناعي

في المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.

وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.

وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.

إعلان

ويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.

الصين في الصورة

ورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".

موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له

وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.

ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.

وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".

مقالات مشابهة

  • القومي للبحوث يعلن بدء إنشاء مركز الذكاء الاصطناعي لدعم البحث العلمي
  • الذكاء الاصطناعي الخارق أصبح في متناول يد ميتا.. وزوكربيرغ يخشى مخاوف أمنية جديدة
  • المعلمون في خطر.. خاصية جديدة في "تشات جي بي تي" تشرح الدروس
  • هيئة مكافحة الاحتكار الإيطالية تحقق مع ميتا بشأن دمج الذكاء الاصطناعي في واتساب
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • وضع الدراسة بـ تشات جي بي تي.. ميزة جديدة تغيّر قواعد التعلم الذكي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • Google Photos تستعد لإطلاق أداة جديدة لتحرير الصور باستخدام الذكاء الاصطناعي
  • مبادرات جديدة لغوغل في أفريقيا لتعزيز الذكاء الاصطناعي
  • التضليل الإعلامي .. حرب على القيم والهوية والأمن والاستقرار