كشفت شركة Anthropic مؤخرًا عن تطبيقها الجديد للذكاء الاصطناعي "Claude"، الذي يعتبر الآن متاحًا على أجهزة iOS، وهو مصمم ليعمل بطرق تشبه إلى حد كبير ChatGPT من OpenAI. قام بتطويره داريو أمودي، الرئيس التنفيذي لشركة Anthropic والنائب السابق للأبحاث في OpenAI، وفريق من الموظفين السابقين الذين غادروا الشركة بعد شعورهم بأن OpenAI كانت تعطي الأولوية للأرباح على السلامة.



يتميز Claude بقدرات محسّنة مقارنةً بالنسخ الأولية من ChatGPT، حيث يقدم إجابات أكثر مباشرة ومتماسكة، ويمتلك القدرة على تحليل الصور والملفات، وهو ما لا تتوفر في النسخ الحالية من ChatGPT. وعلى الرغم من ذلك، فإن Claude مخصص فقط لمستخدمي iOS حاليًا، وسيتعين على مستخدمي Android الانتظار لفترة أطول قليلاً للحصول على التطبيق.

لتنزيل واستخدام Claude على جهاز iPhone، يجب الانتقال إلى متجر التطبيقات والبحث عن "Claude"، ثم تحميل التطبيق واتباع التعليمات للتسجيل باستخدام حساب Google، البريد الإلكتروني، أو معرف Apple. بمجرد الانتهاء من التسجيل، سيتمكن المستخدمون من استخدام التطبيق والاستفادة من ميزاته المتقدمة.

تجدر الإشارة إلى أن النسخة المجانية من التطبيق تقدم إمكانية إرسال عدد محدود من الرسائل لروبوت الدردشة قبل الحاجة إلى الانتظار لساعات قبل أن يتمكن المستخدمون من الاستمرار في استخدام الخدمة. هذا التقييد يهدف إلى تشجيع المستخدمين على تقييم الاستخدام الفعال للتطبيق والاشتراك لمزيد من الوصول إذا لزم الأمر.

المصدر: أخبارنا

إقرأ أيضاً:

قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة

تتزايد خلال الشهور الأخيرة مخاوف الباحثين في الأمن السيبراني من ظهور أساليب جديدة للهجمات التي تستغل ثقة المستخدمين في أدوات الذكاء الاصطناعي، وفي مقدمتها روبوتات الدردشة الشهيرة مثل ChatGPT وGrok.

 تقرير حديث لشركة "هانتريس" المتخصصة في الكشف عن التهديدات كشف عن نمط هجوم مقلق يعتمد على دمج الذكاء الاصطناعي في أساليب الاحتيال التقليدية، ما يضع المستخدمين أمام موجة جديدة من المخاطر التي يصعب ملاحظتها بالطرق المعتادة.

وفقًا للتقرير، بدأ القراصنة في استغلال محركات البحث وروبوتات الدردشة لترويج تعليمات خطيرة تُزرع داخل محادثات منشورة للعامة. الخطورة هنا لا تتعلق فقط بنوعية الهجوم، بل بقدرته على تجاوز جميع الإشارات التحذيرية التي يعتمد عليها المستخدمون عادة لاكتشاف المحتوى الخبيث. 

فبدلًا من إرسال روابط مشبوهة أو طلب تحميل ملفات غير معروفة، يعتمد المهاجمون على الطلب من المستخدم تنفيذ أوامر مباشرة عبر نافذة الطرفية أو سطر الأوامر، مستغلين ثقته العمياء في الذكاء الاصطناعي ومحرك بحث جوجل.

وتبدأ العملية ببساطة شديدة: يتحدث المخترق مع روبوت ذكاء اصطناعي حول موضوع بحث شائع، مثل تنظيف مساحة التخزين أو إصلاح خطأ تقني، ثم يطلب من الذكاء الاصطناعي اقتراح أمر جاهز يُلصَق في الطرفية لتنفيذ المهمة. هذه المحادثة تُنشر بشكل عام، ويقوم المهاجم بدفع المال لتتقدم في نتائج جوجل. وعندما يبحث مستخدم عادي عن نفس المشكلة التقنية، تظهر له تلك المحادثة في أعلى نتائج البحث، فيظن أنها نصيحة موثوقة ويقوم بتنفيذ التعليمات دون تردد.

ضحية هجوم AMOS الأخير كانت مجرد مستخدم يبحث عن طريقة لمسح مساحة القرص على جهاز ماك. بمجرد نقره على رابط منشور تابع لـ ChatGPT وتنفيذ الأمر المقترح، منح المهاجمين تصريحًا مُباشرًا لتثبيت البرنامج الخبيث على جهازه. ووفقًا لاختبارات "هانتريس"، فإن كلًا من ChatGPT وGrok قدما ردودًا مشابهة في سيناريوهات محاكاة، مما يشير إلى أن المشكلة لا تقتصر على نظام واحد.

اللافت في الأمر أن هذا النوع من الهجمات يلغي الحاجة إلى أي من العلامات التحذيرية التقليدية:
لا ملفات مجهولة، ولا روابط غريبة، ولا إجراءات تتطلب إذنًا خاصًا. كل ما يحدث يجري ضمن بيئة موثوقة — جوجل، وChatGPT، ومنصات الذكاء الاصطناعي التي اعتاد كثيرون على الاعتماد عليها يوميًا.

وتحذر "هانتريس" من أن خطورة هذا الأسلوب تكمن في بساطته وقدرته على خداع حتى المستخدمين المتمرسين تقنيًا. فالاعتماد المتزايد على روبوتات الدردشة يجعل المستخدمين يميلون لتصديق أي أمر يبدو تقنيًا وصادرًا عن أداة ذكاء اصطناعي معروفة. المستغرب أيضًا أن الرابط الضار ظل ظاهرًا في نتائج البحث نصف يوم كامل بعد نشر التحذير، رغم محاولات إزالته.

هذه التطورات تأتي في وقت حساس بالنسبة لبرامج الدردشة نفسها. فـ Grok يواجه انتقادات واسعة بسبب انحيازاته، فيما يتعرض ChatGPT لاتهامات بالتراجع في قدراته مقارنة بالمنافسين. مثل هذه الحوادث تزيد الضغط على الشركات المطورة لأنظمة الذكاء الاصطناعي لمراجعة آليات الحماية ومنع إساءة الاستخدام.

وبينما لا يزال من غير الواضح ما إذا كانت روبوتات دردشة أخرى قابلة للاستغلال بنفس الطريقة، يشدد الخبراء على ضرورة رفع مستوى الحذر لدى المستخدمين. التوصيات الأساسية تشمل عدم تنفيذ أي أوامر نصية دون التأكد من مصدرها، وعدم لصق تعليمات في الطرفية أو المتصفح ما لم يكن المستخدم على دراية كاملة بوظيفتها.

في النهاية، يفتح هذا النوع من الهجمات فصلًا جديدًا في عالم الجرائم الإلكترونية، حيث تختلط خوارزميات الذكاء الاصطناعي مع أساليب الاحتيال بطريقة تجعل من الصعب اكتشاف التلاعب. ومع توسع الاعتماد على أدوات الذكاء الاصطناعي في حياتنا اليومية، تصبح الحاجة إلى وعي أكبر وتدقيق أشد ضرورة لضمان بقاء المستخدمين في مأمن من هذه الهجمات المتطورة.

مقالات مشابهة

  • تسريب يكشف أن سلسلة Galaxy S26 ستعتمد كليًا على نموذج Gauss للذكاء الاصطناعي
  • كوريا الجنوبية تتجه نحو تطبيق إطار تنظيمي للذكاء الاصطناعي
  • ديزني وOpenAI.. تحالف غير متوقع يعيد رسم مستقبل الذكاء الاصطناعي
  • نيويورك تضع قواعد جديدة للذكاء الاصطناعي في الإعلانات والفنون
  • دعوى قتل خطأ تُلاحق OpenAI وتفتح ملف الذكاء الاصطناعي والصحة النفسية
  • الذكاء الاصطناعي الخارق.. OpenAI تحتفل بعشر سنوات من الإنجازات
  • ديزني تدخل عالم المحتوى المولد بالذكاء الاصطناعي عبر بوابة OpenAI
  • قراصنة يستغلون الذكاء الاصطناعي.. هجمات خفية عبر جوجل وبرمجيات الدردشة
  • بعد إنذار كود أحمر تصدر أوبن إيه آي جي بي تي 5 فاصل 2 بدقة أكبر وهلوسات أقل
  • دعوى أمريكية تتهم ChatGPT بدفع ابن إلى إنهاء حياة والدته