أوبريتر وكيل ذكاء اصطناعي من أوبن إيه آي يمكنه القيام بالعديد من النشاطات بدلا عنك
تاريخ النشر: 5th, March 2025 GMT
أعلنت شركة "أوبن إيه آي" أنها ستطرح وكيل ذكاء اصطناعي جديد تحت اسم "أوبريتر" (Operator) يمكنه أداء المهام نيابة عنك، وسيتوفر لمشتركي "برو" (Pro) في أستراليا والبرازيل وكندا والهند واليابان وسنغافورة وكوريا الجنوبية والمملكة المتحدة والمزيد من البلدان. وفقا لموقع "ذا صن".
وأضافت الشركة أن "أوبريتر" سيكون متاحا في معظم البلدان التي يتوفر فيها "شات جي بي تي" باستثناء الاتحاد الأوروبي وسويسرا والنرويج وليختنشتاين وآيسلندا.
وقد أعلنت الشركة عن "أوبريتر" لأول مرة الشهر الماضي، وهو أداة مستقلة يمكن توجيهها للقيام بمهام محددة، وكل ما يحتاجه هو صورة لقائمة التسوق خاصتك، وسيقوم بشراء ما تحتاجه عبر الإنترنت، ويمكنه أيضا طلب سيارة "أوبر" (Uber) أو حجز طاولة في مطعمك المفضل من خلال منصة "أوبن تيبل" (OpenTable).
ودُرّب وكيل الذكاء الاصطناعي الجديد على تصفح الويب مثل الإنسان، فهو قادر على التنقل بين الصفحات الإلكترونية والقوائم والأزرار كالتي يفعلها الإنسان باستخدام لوحة المفاتيح والفأرة، ولكنه يفعل ذلك بشكل افتراضي.
ولا داعي للقلق بشأن عمليات تسجيل الدخول أثناء جولة التسوق، فإن شركة "أوبن إيه آي" تقول إن "أوبريتر" سيطلب من المستخدم تولي المهام التي تتطلب تسجيل الدخول أو تفاصيل الدفع، وهكذا لن يكون لوكيل الذكاء الاصطناعي أي صلاحيات تخوله استخدام معلومات التسجيل أو تفاصيل الدفع، كما يمكن التأكد من أي طلب قبل الموافقة على عملية الشراء.
إعلانوقال سام ألتمان خلال إعلانه عن "أوبريتر" الشهر الماضي "نعتقد أن هذا سيكون اتجاها كبيرا في الذكاء الاصطناعي، وسيؤثر بشكل كبير على نشاطات الناس ومدى إنتاجيتهم وما يمكنهم إنجازه".
وفي وقت سابق من هذا العام، قال ألتمان "أعتقد أن وكلاء الذكاء الاصطناعي سيغيرون إنتاج الشركات بشكل ملموس مما يجعلها أكثر كفاءة"، وأضاف "إن وكلاء الذكاء الاصطناعي سينضمون بشكل موسع إلى قوة العمل في عام 2025، وسيكونون قادرين على التدريب في معظم المهام الإدارية لقطاعات مثل التمويل وخدمة العملاء والمبيعات".
يُذكر أن هناك منافسة كبيرة في هذا المجال مع شركات مثل غوغل و"أنثروبيك" (Anthropic) و"رابيت" (Rabbit) والتي تبني وكلاء ذكاء اصطناعي قادرة على أداء مهام مماثلة، ولكن مشروع غوغل لا يزال في قائمة الانتظار، بينما شركة "أنثروبيك" تمنح الوصول إلى وكيل الذكاء الاصطناعي من خلال واجهة برمجة التطبيقات "إيه بي آي" (API)، أما شركة "رابيت" فتتيح نموذجها للمستخدمين الذين يمتلكون جهازها فقط.
المصدر: الجزيرة
كلمات دلالية: حريات رمضان الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.