أعلنت شركة آبل أن الأجهزة التي ستصدر حتى نهاية العام الجاري لن تكون مدعومة بالكامل بمزايا الذكاء الاصطناعي التي تم الكشف عنها في مؤتمرها السنوي للمطورين. وقالت الشركة إن هذه الميزات، التي تحمل اسم "Apple Intelligence"، سيتم تأجيلها حتى عام 2025، مما أثار خيبة أمل بين عشاق التكنولوجيا.

أكدت آبل خلال مؤتمرها السنوي للمطورين 2024، الذي عُقد الأسبوع الماضي في كاليفورنيا، أن بعض مزايا الذكاء الاصطناعي لن تكون جاهزة عند إصدار iOS 18 وiPadOS 18 وmacOS Sequoia عالمياً في وقت لاحق من هذا العام.

وتضمنت الأسباب الرئيسية لهذا التأجيل الحاجة إلى مزيد من الوقت لتحسين هذه الميزات وتدريب نماذج الذكاء الاصطناعي، إضافة إلى بناء البنية التحتية السحابية اللازمة.

وتخطط آبل لتوفير بعض ميزات الذكاء الاصطناعي الجديدة كمعاينة على طرازات هواتف "آيفون 16"، بينما من المتوقع أن يتم تضمين ملخصات الإشعارات المدعومة بالذكاء الاصطناعي في الإصدار الأولي من "iOS 18". وستكون معظم الميزات الجديدة متاحة باللغة الإنجليزية الأمريكية فقط في البداية، مع احتمال انضمام المستخدمين إلى قائمة انتظار للوصول إليها. تسعى آبل أيضاً إلى إبرام صفقات مع شركات أخرى مثل غوغل وأنثروبيك، لتوسيع نطاق خدمات الذكاء الاصطناعي المتاحة لمستخدميها.

المصدر: أخبارنا

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟

تمكنت الجماعات الإرهابية في العالم من استغلال تقنيات الذكاء الاصطناعي بشكل مستمر ومتصل لتعزيز عملياتها، بدءا من استخدام العملات الرقمية لنقل الأموال وحتى استخدام الطباعة ثلاثية الأبعاد لصناعة الأسلحة، ولكن وفق التقرير الذي نشره موقع "غارديان" فإن الإرهابيين بدأوا في استخدام تقنيات الذكاء الاصطناعي.

ويشير التقرير إلى أن الإرهابيين بدأوا في الوقت الحالي باستغلال الذكاء الاصطناعي للتخطيط لهجماتهم وعملياتهم المختلفة، وفق تصريحات هيئات مكافحة الإرهاب بحكومة الولايات المتحدة، ولكن ما مدى هذا الاستخدام؟

الدعاية بالذكاء الاصطناعي

تعتمد الجهات الإرهابية بشكل كبير على جذب المتطوعين من مختلف بقاع الأرض والترويج لأعمالهم باستعراضها، وبينما كان الأمر يحتاج إلى مجهود كبير لالتقاط الصور والمقاطع وتجهيز الدعاية المباشرة لهذه العمليات، إلا أن الأمر اختلف بعد انتشار تقنيات الذكاء الاصطناعي.

ويؤكد تقرير "غارديان" أن الإرهابيين يعتمدون على "شات جي بي تي" لتعزيز نشاطهم الدعائي وجذب المزيد من المتطوعين إلى صفوفهم، إذ يعتمدون على النموذج لتوليد الصور والنصوص التي تستخدم في الدعاية بلغات ولهجات مختلفة.

كما يستطيع النموذج تعديل الرسالة الموجودة في وسائل الدعاية المختلفة لتمتلك أثرا مختلفا على كل شخص أو تحقق هدفا مختلفا، وذلك في ثوان معدودة ودون الحاجة إلى وجود صناع إعلانات محترفين.

ولا يقتصر الأمر على "شات جي بي تي" فقط، إذ امتد استخدامهم إلى بعض الأدوات التي تحول النصوص إلى مقاطع صوتية ومقاطع فيديو، وذلك من أجل تحويل رسائل الدعاية النصية التي يقدمونها إلى مقاطع صوتية وفيديو سهلة الانتشار.

ويشير تقرير "غارديان" إلى أن "داعش" تمتلك دليلا خاصا لاستخدام أدوات الذكاء الاصطناعي ومخاطره وتوزعه مباشرة على أعضائها والمهتمين بالانضمام إليها.

إعلان التوسع في استخدام الذكاء الاصطناعي

ويذكر التقرير أيضا غرف دردشة تعود ملكيتها لجهات إرهابية، يتحدث فيها المستخدمون عن أدوات الذكاء الاصطناعي، وكيف يمكن استغلالها لتعزيز أنشطتهم واختصار الأوقات والجهود المبذولة في الجوانب المختلفة.

وبينما صممت تقنيات الذكاء الاصطناعي لمساعدة المستخدمين وتسهيل حياتهم، فإن هذا الأمر لم يغب عن أفراد الجهات الإرهابية الذين بدأوا في استخدام روبوتات الدردشة عبر الذكاء الاصطناعي كمساعد شخصي أو مساعد باحث.

دليل استخدام الذكاء الاصطناعي الخاص بداعش يوجه أعضاءها إلى استخدام الذكاء الاصطناعي كمساعد شخصي (شترستوك)

ويظهر هذا الاستخدام بوضوح في دليل داعش لاستخدام الذكاء الاصطناعي، حيث يذكر الدليل بوضوح، أن هذه التقنية يمكنها تحديد النتيجة المستقبلية للحرب وكيف تحولت إلى سلاح محوري في الحروب المستقبلية.

ويذكر التقرير أيضا استخدام الذكاء الاصطناعي في الأبحاث السريعة والمباشرة من أجل وضع المخططات والبحث بدلا من الحاجة إلى جمع المعلومات يدويًا في الميدان، إذ تستطيع التقنية الآن تسريع هذه العملية وإيصالها إلى نتائج غير مسبوقة.

التغلب على القيود

تضع شركات الذكاء الاصطناعي على غرار "أوبن إيه آي" مجموعة من القيود على نماذجها، حتى لا تساعد هذه النماذج في بناء الأسلحة المتفجرة أو الأسلحة البيولوجية وغيرها من الأشياء التي يمكن استخدامها استخداما سيئا.

ولكن وفق تقرير "غارديان"، فقد وجدت الجهات الإرهابية آلية للتغلب على هذا الأمر، وبدلا من سؤال نماذج الذكاء الاصطناعي عن آلية صناعة القنابل والأسلحة مباشرة، يمكن تقديم المخططات للنموذج وطلب التحقق من دقتها وسلامتها.

وفضلا عن ذلك، يمكن خداع الذكاء الاصطناعي بعدة طرق لإيهامه، أن هذه المخططات والمعلومات التي يقدمها لن تستخدم استخداما سيئا، وهي الحالات التي حدثت من عدة نماذج مختلفة في السنوات الماضية.

ومع تسابق الشركات على تطوير تقنيات ذكاء اصطناعي أكثر قوة وقدرة على أداء وظائفها بشكل ملائم، تهمل في بعض الأحيان إرشادات السلامة المعمول بها عالميا.

وربما كان ما حدث مع روبوت "غروك" مثالا حيا لذلك، إذ تحول النموذج في ليلة وضحاها إلى أداة لنشر الخطاب المعادي للسامية وخطاب الكراهية عبر تغريدات عامة في منصة "إكس".

مقالات مشابهة

  • دعوة لمقاربة شاملة لتنظيم الذكاء الاصطناعي
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي 1/5
  • الذكاء الاصطناعي يفضّل الاستشهاد بالمحتوى الصحفي
  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
  • الذكاء الاصطناعي يساعد على توقع الخصائص الكيميائية
  • مصروفات كليات الذكاء الاصطناعي 2025.. وتوقعات التنسيق
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • حمص.. ورشة تدريبية حول توظيف الذكاء الاصطناعي بأعمال مجلس المدينة
  • كشف دليل داعش السري: كيف يستخدم التنظيم الذكاء الاصطناعي؟