"أبرزها الحرب".. أخطر 3 أشياء سيفعلها الذكاء الاصطناعي 2024| تعرف عليها
تاريخ النشر: 1st, January 2024 GMT
على الرغم من أن عام 2023 كان عام تغيير قواعد اللعبة بالنسبة للذكاء الاصطناعي، إلا أنه كان مجرد البداية، حيث من المقرر أن يبدأ عام 2024 بمجموعة من التطورات المخيفة في مجال الذكاء الاصطناعي والتي من أبرزها التزييف العميق الأكثر واقعية والحرب.
يقول العلماء إن الذكاء الاصطناعي هذا العام قد يؤدي وظائف معينة بشكل أفضل من معظم البشر.
وفقًا لتقرير على موقع Live Science، إن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعي حيث أنه من المتوقع أن يفعل ثلاث أمور مخيفة خلال الأشهر المقبلة.
التزييف الواقعي العميق وتزوير الانتخاباتأحد التهديدات السيبرانية الأكثر إلحاحًا في مجال الذكاء الاصطناعي هي تهديد التزييف العميق للواقع إلى الحد الذي يجعلك تشعر بأنه واقعًا بالفعل- الصور أو مقاطع الفيديو الملفقة بالكامل لأشخاص قد تحرفهم أو تجرمهم أو تتنمر عليهم. لم تكن تقنية التزييف العميق للذكاء الاصطناعي جيدة بما يكفي لتشكل تهديدًا كبيرًا من قبل، لكن هذا قد يكون على وشك التغيير خلال هذا العام.
فيمكن للذكاء الاصطناعي الآن إنشاء صور مزيفة عميقة - أي بث فيديو مباشر. بعبارة أخرى - قد أصبح الذكاء الاصطناعي الآن جيدًا جدًا في إنشاء وجوه بشرية لدرجة أن الأشخاص لم يعد بإمكانهم التمييز بين ما هو حقيقي وما هو مزيف.
وكشفت دراسة أخرى، نشرت في مجلة العلوم النفسية في 13 نوفمبر الماضي، عن ظاهرة "الواقعية المفرطة"، حيث من المرجح أن يُنظر إلى المحتوى الناتج عن الذكاء الاصطناعي على أنه "حقيقي".
وبالتالي فأحد الاحتمالات المخيفة للذكاء الاصطناعي هو أن يتمكن البشر من نشر التزييف العميق له لمحاولة التأثير على الانتخابات.
فذكرت صحيفة فايننشال تايمز، على سبيل المثال، أن بنجلاديش تستعد لانتخابات في يناير/كانون الثاني المقبل، بينما تستعد الولايات المتحدة لإجراء الانتخابات الرئاسية في نوفمبر 2024، وهناك احتمال أن يؤدي الذكاء الاصطناعي والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم.
على سبيل المثال، تراقب جامعة كاليفورنيا في بيركلي استخدام الذكاء الاصطناعي في الحملات الانتخابية، وذكرت شبكة إن بي سي نيوز أيضًا أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أي زيادة في المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
أدوات الحروبتعمل الحكومات في جميع أنحاء العالم على دمج الذكاء الاصطناعي بشكل متزايد في أدوات الحرب. وأعلنت الحكومة الأمريكية في 22 نوفمبر الماضي أن 47 ولاية قد أيدت إعلانًا بشأن الاستخدام المسؤول للذكاء الاصطناعي في الجيش، والذي تم إطلاقه لأول مرة في لاهاي في فبراير 2023.
إذًا، لماذا كانت هناك حاجة لمثل هذا الإعلان؟ لأن الاستخدام "غير المسؤول" هو احتمال حقيقي ومرعب. فقد رأينا، على سبيل المثال، طائرات بدون طيار تعمل بالذكاء الاصطناعي تطارد جنودًا في ليبيا دون تدخل بشري.
في عام 2024، من المحتمل أننا لن نرى استخدام الذكاء الاصطناعي في أنظمة الأسلحة فحسب، بل أيضًا في الأنظمة اللوجستية وأنظمة دعم القرار، فضلاً عن البحث والتطوير.
الروبوتات القاتلةأحد مجالات التطوير الأكثر إثارة للخوف هو مجال أنظمة الأسلحة الفتاكة المستقلة (LAWS) - أو الروبوتات القاتلة. وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة، بما في ذلك ستيفن هوكينج في عام 2015 وإيلون ماسك في عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع.
ومع ذلك، تشير بعض التطورات المثيرة للقلق إلى أن هذا العام قد يكون بمثابة انطلاقة للروبوتات القاتلة. على سبيل المثال، في أوكرانيا، زُعم أن روسيا نشرت طائرة Zala KYB-UAV بدون طيار، والتي يمكنها التعرف على الأهداف ومهاجمتها دون تدخل بشري، وفقًا لتقرير صادر عن نشرة علماء الذرة. وقد طورت أستراليا أيضًا Ghost Shark، وهو نظام غواصة مستقلة من المقرر أن يتم إنتاجه "على نطاق واسع"، وفقًا لما ذكرته مجلة Australia Financial Review.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي تزوير الانتخابات الحرب للذکاء الاصطناعی الذکاء الاصطناعی على سبیل المثال التزییف العمیق
إقرأ أيضاً:
بالتعاون مع الاتصالات.. النيابة العامة تنظم برنامجا تدريبيا حول الاستخدام الآمن للذكاء الاصطناعي
نظمت النيابة العامة بالتعاون مع وزارة الاتصالات وتكنولوجيا المعلومات برنامجًا تدريبيًا حول الاستخدام الآمن والمسؤول للذكاء الاصطناعي.
جاء ذلك في ضوء توجيهات النائب العام المستشار محمد شوقي برفع الكفاءة الفنية لأعضاء النيابة العامة، ونفاذًا لإستراتيجية النيابة العامة للتدريب، نظمت إدارة التفتيش القضائي بالتعاون مع وزارة الاتصالات وتكنولوجيا المعلومات برنامجها التدريبي بعنوان "الاستخدام الآمن والمسؤول للذكاء الاصطناعي"، والذي نُفِّذ بالأكاديمية الوطنية لمكافحة الفساد بهيئة الرقابة الإدارية
وقد شمل البرنامج عددًا من الموضوعات التي تناولت الجوانب الأساسية لاستخدامات الذكاء الاصطناعي، بما في ذلك المفاهيم الحديثة للتقنيات الرقمية، وإطار الدولة المصرية لتعزيز التحول الرقمي، والضوابط القانونية والأخلاقية المنظمة لاستخدام تقنيات الذكاء الاصطناعي، فضلًا عن الجوانب المتعلقة بالأمن السيبراني وحماية البيانات، والتطبيقات العملية للذكاء الاصطناعي في تطوير وتحسين الخدمات الحكومية.
وأكدت الدكتورة غادة لبيب نائب وزير الاتصالات للتطوير المؤسسي، واللواء هشام منصور رئيس الأكاديمية الوطنية لمكافحة الفساد بالرقابة الإدارية، في كلمتيهما الافتتاحيتين، أهمية هذا النوع من البرامج في تعزيز جاهزية المؤسسات العدلية والقضائية للتحول الرقمي، وضرورة تبني استخدام آمن ومسؤول للتقنيات الحديثة على نحو يسهم في تطوير آليات العمل ورفع كفاءة الأداء.
وجاء تنظيم هذا البرنامج في إطار حرص النيابة العامة على إتاحة التدريب المتخصص لأعضائها، ورفع مستوى الوعي بالمفاهيم الأساسية والتطورات الحديثة في تقنيات الذكاء الاصطناعي، وتعزيز مهارات الاستخدام الآمن والمسؤول للأنظمة الرقمية داخل بيئة العمل القضائي، وترسيخ المعرفة بالإطار القانوني والأخلاقي المنظم لاستخدام تلك التقنيات، ودعم قدرات الأعضاء في التعامل مع مخاطر الأمن السيبراني وحماية البيانات، وتأهيلهم للتعامل مع التطبيقات العملية للذكاء الاصطناعي بما يسهم في تطوير الخدمات وتحسين الأداء داخل النيابات.
وقد أسفر البرنامج عن عدد من المخرجات المهمة، من أبرزها رفع مستوى الوعي الرقمي لدى المشاركين وتعزيز فهمهم لمخاطر واستخدامات الذكاء الاصطناعي، وتحسين قدرتهم على استخدام أدوات الذكاء الاصطناعي بصورة آمنة ومسؤولة، وتنمية الحس الأمني لديهم فيما يتعلق بحماية البيانات والتعامل مع المخاطر السيبرانية في بيئة العمل القضائي، فضلًا عن تعميق فهمهم لمنظومة الدولة المصرية في مجال التحول الرقمي ودعم الأدوار المؤسسية في تطوير الخدمات الحكومية.