آبل تضيف خيار اشتراك ChatGPT إلى iOS 18.2
تاريخ النشر: 7th, November 2024 GMT
لاحظ موقع MacRumors ميزة غير عادية في الإصدار التجريبي الثاني للمطورين من iOS 18.2، تُظهر أن Apple قد تسمح للمستخدمين بالترقية إلى خطة ChatGPT مدفوعة كجزء من Apple Intelligence. في حين لا تحتاج Siri إلى استخدام ChatGPT لجميع مهامها، يستمتع بعض المستخدمين باستخدام التكامل للمهام القوية والمزيد.
في الصورة أعلاه، يمكنك أن ترى أنه ضمن "القدرات المتقدمة"، يوجد قسم "حد يومي" يُظهر "تحت الحد".
إذا نقرت على زر "الترقية إلى ChatGPT Plus"، فسيتم إعادة توجيهك داخل التطبيق إلى شاشة شراء الاشتراك. تبلغ تكلفة ChatGPT Plus 20 دولارًا شهريًا. لذلك، في حين أن Apple نفسها لا تنفذ نموذج اشتراك، يبدو أنك ستحتاج إلى الدفع مقابل وصول مميز غير محدود إلى ChatGPT.
مثل تكامل ChatGPT الجديد هذا، فهو جزء من الإصدار التجريبي للمطورين لنظام التشغيل iOS 18.2. يجب إطلاق كليهما في النهاية مع الإصدار النهائي من iOS 18.2، والذي يُشاع أنه سيصل في أوائل ديسمبر.
المصدر: بوابة الوفد
إقرأ أيضاً:
خدعة خفية فى ChatGPT تكشف أسرارك على العلن
رغم التطورات الهائلة التي قدمتها OpenAI في نماذج مثل ChatGPT ونسخة GPT‑4، كشفت خبراء أمنيون عن خدع بسيطة يستطيع أي مستخدم تنفيذها لخداع النظام، مما يؤثر على خصوصية المستخدم.
أحد الباحثين استطاع خداع ChatGPT عبر نص مخفي داخل HTML لإقناعه بالكشف عن مفاتيح Windows سرية وغيرها من المعلومات الحساسة المحتملة.
خدعة تثير القلق: prompt injectionالهجوم المعروف باسم prompt injection هو استغلال يجعل النظام يفسر جزءًا من رسالة المستخدم كأجزاء للبرمجة الداخلية. يمكن إخفاء التعليمات ضمن محتوى الويب أو النصوص ليتم تنفيذها من قبل ChatGPT دون أن يتبين أنها ليست من المستخدم، مما قد يؤدي إلى مشاركة معلومات غير مرئية للعين البشرية تدمر الحواجز الأمنية.
خصوصيتك بلا ضامن رسميرغم أن الشركة تحترم خصوصية المستخدم، إلا أن الرئيس التنفيذي سام ألتمان حذر مؤخرًا من أن المحادثات مع ChatGPT لا تتمتع بالحماية القانونية مثل المحادثات مع الطبيب أو المحامي. كما أوصى بضرورة إيجاد إطار قانوني خاص لتأمين خصوصية البيانات داخل الذكاء الاصطناعي.
كذلك، أُزيل ميزة مشاركة المحادثات بنشرها عبر الإنترنت بعد اكتشاف أنها سهولة عرضت آلاف المحادثات indexable على محركات البحث، مما كشف بيانات حساسة عن أشخاص في بعض الحالات.
كشفت دراسة أمنية أن ما يزيد عن 4% من الطلبات باستخدام ChatGPT تضمنت معلومات حساسة من الشركات، مثل شيفرات مصدرية أو وثائق داخلية. وصُنفت ChatGPT ضمن أعلى أدوات AI مساهمة في تسريب البيانات في بيئات العمل، بسبب الاستخدام غير المراقب لهذه التكنولوجيا.
الخلاصة: خدعة بسيطة، وخصوصيات مفجعةالنظام الذكي القوي لا يعفيك من ضرورة الحذر. خدعة prompt injection هي أكبر من أسلوب اختراق؛ إنها ثغرة فلسفية: يمكن تحويل المستخدم لنقلة البيانات غير المقصودة مدة لا تخطر على باله. حتى أن مشاركة الرابط مع الآخرين قد تُظهر محادثة داخلية تعرض بياناتك العاطفية أو المهنية إلى أي شخص على الشبكة.
إذاً، الطريق الآمن يبدأ من إدراكك بأنك لا تتحدث إلى “صديق رقمي يفهمك”، بل إلى نموذج يحتوي على حدود وعي، ولكن يمكن التلاعب به بدون عنف تقني فقط بتلاعب ذكي في التوجيه.