أعلنت شركة OpenAI عن إطلاق وكيل الذكاء الاصطناعي "Operator" لمشتركي ChatGPT Pro في عدة دول، بما في ذلك أستراليا، البرازيل، كندا، الهند، اليابان، سنغافورة، كوريا الجنوبية، والمملكة المتحدة. 

يتيح "Operator" للمستخدمين تنفيذ مهام مثل حجز التذاكر، حجز المطاعم، تقديم تقارير النفقات، والتسوق عبر الإنترنت. 

يتوفر هذا الوكيل حاليًا فقط لمشتركي ChatGPT Pro الذين يدفعون 200 دولار شهريًا، ويمكن الوصول إليه عبر صفحة ويب مخصصة.

تخطط OpenAI لتوسيع توفر "Operator" ليشمل جميع عملاء ChatGPT في المستقبل.

OpenAI تقلب الموازين.. حظر حسابات صينية في ChatGPT يثير الجدلاختراق OpenAI.. تسريب بيانات 20 مليون حساب "شات جي بي تي"إيلون ماسك يهدد بسحب عرضه لشراء OpenAI.. شرط وحيد يقرر مصير الصفقةإيلون ماسك يصعد خلافه مع OpenAI بعرض استحواذ بقيمة 97.4 مليار دولار

يعمل "Operator" من خلال نافذة متصفح منفصلة يمكن للمستخدم التحكم فيها في أي وقت، مما يتيح له إكمال المهام المطلوبة. يستخدم الوكيل نموذج OpenAI o1، بالإضافة إلى o1-mini وGPT-4o، لتقديم أفضل أداء في تنفيذ المهام.

من الجدير بالذكر أن "Operator" غير متاح حاليًا في الاتحاد الأوروبي، سويسرا، النرويج، ليختنشتاين، وآيسلندا. تواجه OpenAI منافسة من شركات أخرى مثل Google وAnthropic وRabbit، التي تطور وكلاء ذكاء اصطناعي بقدرات مشابهة.

يُتوقع أن يسهم "Operator" في زيادة إنتاجية المستخدمين من خلال تولي المهام الإدارية، مما يتيح لهم التركيز على جوانب أكثر أهمية في أعمالهم وحياتهم اليومية.

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي المزيد

إقرأ أيضاً:

خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ

#سواليف

كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.

ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.

وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.

مقالات ذات صلة حرارة الصيف تهاجم إطارات السيارات.. كيف تحمي نفسك من أضرار لا تُرى؟ 2025/07/30

ويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.

وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.

ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.

في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.

وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.

مقالات مشابهة

  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا
  • وضع الدراسة في ChatGPT.. بديلا للمدرسين بالذكاء الاصطناعي بين يدي الطلاب
  • ابتكار جهاز جديد يفرز النفايات باستخدام الذكاء الاصطناعي
  • 89% من الإماراتيين يستخدمون الذكاء الاصطناعي في التخطيط لعطلاتهم
  • احتيال شركات الذكاء الاصطناعي يجب أن يتوقف
  • السباق الاستخباراتي على الذكاء الاصطناعي
  • معضلة الذكاء الاصطناعي والمؤلف العلمي
  • خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
  • لأنظمة ماك.. OpenAI تطلق ميزة وكيل ChatGPT الذكي
  • ليست سرية.. خصوصية محادثات ChatGPT على المحك