اعتبر الرئيس الأميركي دونالد ترامب أن نموذج الذكاء الاصطناعي الصيني منخفض التكلفة "ديب سيك" هو بمثابة "جرس إنذار" للشركات الأميركية، بعد أن تسبب إطلاق التطبيق الصيني بتراجع كبير في أسهم شركات التكنولوجيا العالمية.
وقال ترامب خلال مؤتمر للحزب جمهوري في ميامي "نأمل أن يكون إطلاق "ديب سيك" للذكاء الاصطناعي من شركة صينية بمثابة جرس إنذار لحاجة صناعاتنا إلى التركيز الحاد على المنافسة للفوز".



وجاءت تعليقات ترامب بعد أن تعرضت شركة "انفيديا" الأميركية التي تزود صناعة الذكاء الاصطناعي بأشباه الموصلات لخسارة تاريخية، حيث فقدت نحو 600 مليار دولار من قيمتها السوقية مع تراجع أسهمها بنحو 17%.
وأظهر روبوت الدردشة الذي طورته شركة "ديب سيك" الناشئة التي تتخذ من مدينة هانغتشو في شرق الصين مقرا لها، قدرة على منافسة شركات الذكاء الاصطناعي الأميركية مقابل استثمارات بسيطة.

وكان ترامب قد أعلن الأسبوع الماضي، وبعد تنصيبه لولاية ثانية، عن مشروع بقيمة 500 مليار دولار لإنشاء بنية تحتية للذكاء الاصطناعي في الولايات المتحدة بقيادة مجموعة "سوفت بانك"اليابانية وشركتي "أوبن آي" و"تشات جي بي تي" الأميركيتين".

أخبار ذات صلة تطبيق الذكاء الاصطناعي الصيني "ديب سيك" يتعرض لاختراق "واسع النطاق" ترامب: "مايكروسوفت" مهتمة بالاستحواذ على "تيك توك" المصدر: وكالات

المصدر: صحيفة الاتحاد

كلمات دلالية: دونالد ترامب الذكاء الاصطناعي الذکاء الاصطناعی دیب سیک

إقرأ أيضاً:

كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟

تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

إعلان التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".

مقالات مشابهة

  • دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي 1/5
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
  • كوريا الجنوبية تعد حزمة تجارية قبل انتهاء تعليق الرسوم الأميركية
  • قبلة حفلة كولدبلاي تطيح بمسؤولة الموارد البشرية في شركة أسترونومر الأميركية
  • الذكاء الاصطناعي يساعد على توقع الخصائص الكيميائية
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟