برلين -(د ب أ)- تفتح تكنولوجيا الذكاء الاصطناعي الباب أمام جيل جديد من تطبيقات الترجمة، في حين تنفذ خدمات الإنترنت والتكنولوجيا الأمريكية جوجل كسر حواجز اللغة من خلال نموذج جديد للذكاء الاصطناعي يستطيع التحدث باللغة الأجنبية بصوت المستخدم. وكشفت جوجل عن نموذج “أوديو-بالم أيه.آي” للترجمة، ويستطيع  التعرف ومعالجة وإنتاج العبارات سواء مكتوبة أو مسموعة، لكن الخاصية الأبرز هي أنه يستطيع  استخدام صوت المستخدم عند نطق العبارات المترجمة إلى اللغة الأجنبية.

وعرض خبراء  جوجل نتائج المشروع في فيديو يحتوي على حوار بين مجموعة أشخاص يتحدثون بلغات مختلفة حيث يتم ترجمة أحاديثهم إلى اللغة الإنجليزية بنفس أصواتهم بسلاسة.  يأتي ذلك في الوقت الذي تراجعت فيه شعبية خدمة “ترجمة جوجل” أمام أدوات الترجمة المنافسة مثل “ديب إل” من حيث جودة الترجمة، لكن المطورين يقولون إن النموذج الجديد التي تطوره جوجل “يتفوق بشدة على الأنظمة الحالية للترجمة المسموعة”. ولا يحتاج المستخدم إلى استغراق وقت طويل لإعداد وتدريب  مترجم الذكاء الاصطناعي لكي يتحدث بصوته، وإنما يحتاج إلى “توجيه مسموع مختصر” حتى يبدأ استخدام الخدمة. ويجمع تطبيق الترجمة الجديد “أوديو-بالم” بين نموذج لغة الذكاء الاصطناعي المعروف باسم بال مع مولد الأصوات بالذكاء الاصطناعي “أوديو -إل.إم”  كما يستخدم النموذج بالم  تطبيق محادثة “الذكاء الاصطناعي بارد” الذي طورته جوجل. وفي حين أن خدمة الترجمة الجديدة، تتيح للأشخاص المتواجدين في أي تجمع تبادل الأحاديث بغض النظر عن اختلاف لغاتهم دون عناء، لكنهم سيضطرون إلى التوقف برهة بعد كل جملة حتى تتم ترجمة العبارة للباقين. كما أنه لا يوجد أي مؤشر حتى الآن على ما إذا كان يمكن استخدام تقنية أوديو بالم في خدمة “ترجمة جوجل” المتاحة حاليا.

المصدر: رأي اليوم

كلمات دلالية: الذکاء الاصطناعی

إقرأ أيضاً:

قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة

تتزايد خلال الشهور الأخيرة مخاوف الباحثين في الأمن السيبراني من ظهور أساليب جديدة للهجمات التي تستغل ثقة المستخدمين في أدوات الذكاء الاصطناعي، وفي مقدمتها روبوتات الدردشة الشهيرة مثل ChatGPT وGrok.

 تقرير حديث لشركة "هانتريس" المتخصصة في الكشف عن التهديدات كشف عن نمط هجوم مقلق يعتمد على دمج الذكاء الاصطناعي في أساليب الاحتيال التقليدية، ما يضع المستخدمين أمام موجة جديدة من المخاطر التي يصعب ملاحظتها بالطرق المعتادة.

وفقًا للتقرير، بدأ القراصنة في استغلال محركات البحث وروبوتات الدردشة لترويج تعليمات خطيرة تُزرع داخل محادثات منشورة للعامة. الخطورة هنا لا تتعلق فقط بنوعية الهجوم، بل بقدرته على تجاوز جميع الإشارات التحذيرية التي يعتمد عليها المستخدمون عادة لاكتشاف المحتوى الخبيث. 

فبدلًا من إرسال روابط مشبوهة أو طلب تحميل ملفات غير معروفة، يعتمد المهاجمون على الطلب من المستخدم تنفيذ أوامر مباشرة عبر نافذة الطرفية أو سطر الأوامر، مستغلين ثقته العمياء في الذكاء الاصطناعي ومحرك بحث جوجل.

وتبدأ العملية ببساطة شديدة: يتحدث المخترق مع روبوت ذكاء اصطناعي حول موضوع بحث شائع، مثل تنظيف مساحة التخزين أو إصلاح خطأ تقني، ثم يطلب من الذكاء الاصطناعي اقتراح أمر جاهز يُلصَق في الطرفية لتنفيذ المهمة. هذه المحادثة تُنشر بشكل عام، ويقوم المهاجم بدفع المال لتتقدم في نتائج جوجل. وعندما يبحث مستخدم عادي عن نفس المشكلة التقنية، تظهر له تلك المحادثة في أعلى نتائج البحث، فيظن أنها نصيحة موثوقة ويقوم بتنفيذ التعليمات دون تردد.

ضحية هجوم AMOS الأخير كانت مجرد مستخدم يبحث عن طريقة لمسح مساحة القرص على جهاز ماك. بمجرد نقره على رابط منشور تابع لـ ChatGPT وتنفيذ الأمر المقترح، منح المهاجمين تصريحًا مُباشرًا لتثبيت البرنامج الخبيث على جهازه. ووفقًا لاختبارات "هانتريس"، فإن كلًا من ChatGPT وGrok قدما ردودًا مشابهة في سيناريوهات محاكاة، مما يشير إلى أن المشكلة لا تقتصر على نظام واحد.

اللافت في الأمر أن هذا النوع من الهجمات يلغي الحاجة إلى أي من العلامات التحذيرية التقليدية:
لا ملفات مجهولة، ولا روابط غريبة، ولا إجراءات تتطلب إذنًا خاصًا. كل ما يحدث يجري ضمن بيئة موثوقة — جوجل، وChatGPT، ومنصات الذكاء الاصطناعي التي اعتاد كثيرون على الاعتماد عليها يوميًا.

وتحذر "هانتريس" من أن خطورة هذا الأسلوب تكمن في بساطته وقدرته على خداع حتى المستخدمين المتمرسين تقنيًا. فالاعتماد المتزايد على روبوتات الدردشة يجعل المستخدمين يميلون لتصديق أي أمر يبدو تقنيًا وصادرًا عن أداة ذكاء اصطناعي معروفة. المستغرب أيضًا أن الرابط الضار ظل ظاهرًا في نتائج البحث نصف يوم كامل بعد نشر التحذير، رغم محاولات إزالته.

هذه التطورات تأتي في وقت حساس بالنسبة لبرامج الدردشة نفسها. فـ Grok يواجه انتقادات واسعة بسبب انحيازاته، فيما يتعرض ChatGPT لاتهامات بالتراجع في قدراته مقارنة بالمنافسين. مثل هذه الحوادث تزيد الضغط على الشركات المطورة لأنظمة الذكاء الاصطناعي لمراجعة آليات الحماية ومنع إساءة الاستخدام.

وبينما لا يزال من غير الواضح ما إذا كانت روبوتات دردشة أخرى قابلة للاستغلال بنفس الطريقة، يشدد الخبراء على ضرورة رفع مستوى الحذر لدى المستخدمين. التوصيات الأساسية تشمل عدم تنفيذ أي أوامر نصية دون التأكد من مصدرها، وعدم لصق تعليمات في الطرفية أو المتصفح ما لم يكن المستخدم على دراية كاملة بوظيفتها.

في النهاية، يفتح هذا النوع من الهجمات فصلًا جديدًا في عالم الجرائم الإلكترونية، حيث تختلط خوارزميات الذكاء الاصطناعي مع أساليب الاحتيال بطريقة تجعل من الصعب اكتشاف التلاعب. ومع توسع الاعتماد على أدوات الذكاء الاصطناعي في حياتنا اليومية، تصبح الحاجة إلى وعي أكبر وتدقيق أشد ضرورة لضمان بقاء المستخدمين في مأمن من هذه الهجمات المتطورة.

مقالات مشابهة

  • وزراء صحة كوريا الجنوبية والصين واليابان يعززون التعاون بالذكاء الاصطناعي
  • بالذكاء الاصطناعي.. «جوجل» تكسر حاجز اللغة بترجمة فورية عَبْر السماعات
  • جوجل تكشف عن متصفح ديسكو المدعوم بالذكاء الاصطناعي مع أداة GenTabs المبتكرة
  • تجمع بياناتك بسرية.. كيف تحمي نفسك من أدوات الذكاء الاصطناعي؟ -فيديو
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟ «فيديو»
  • أدوات الذكاء الاصطناعي تجمع بياناتك الشخصية بسرية.. كيف تحمي نفسك؟
  • جوجل تُطلق Gemini للآيفون والآيباد.. الذكاء الاصطناعي يصل متصفحك
  • قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة
  • جوجل تدمج الذكاء الاصطناعي في كروم على آيفون وآيباد