جوجل تطور الذكاء الاصطناعي "جارفيس".. يتولى إدارة متصفح الويب
تاريخ النشر: 27th, October 2024 GMT
قد تكون جوجل قريبة من الكشف عن وكيل الذكاء الاصطناعي الذي يمكنه تشغيل متصفح الويب لمساعدة المستخدمين على أتمتة المهام اليومية. أفادت المعلومات أن الشركة تعمل على "وكيل يستخدم الكمبيوتر" تحت الاسم الرمزي Project Jarvis، وقد يكون جاهزًا للمعاينة في ديسمبر. وفقًا للمصادر التي تحدثت إلى The Information، فإن Jarvis "يستجيب لأوامر الشخص من خلال التقاط لقطات شاشة متكررة لما هو موجود على شاشة الكمبيوتر، وتفسير اللقطات قبل اتخاذ إجراءات مثل النقر فوق زر أو الكتابة في حقل نصي".
يُقال إن Jarvis مصمم للعمل فقط مع متصفحات الويب - وخاصة Chrome - للمساعدة في المهام الشائعة مثل البحث والتسوق وحجز الرحلات الجوية. يأتي ذلك في الوقت الذي تواصل فيه جوجل توسيع قدرات الذكاء الاصطناعي Gemini، والذي من المتوقع الكشف عن طراز الجيل التالي منه في ديسمبر، كما ذكرت The Verge. حصل برنامج Gemini Live، وهو برنامج محادثة آلي يعمل بالذكاء الاصطناعي من Google، على دعم لعشرات اللغات الجديدة هذا الشهر، كما تم مؤخرًا دمج برنامج Gemini في Google Meet وPhotos وتطبيقات أخرى.
تأتي أخبار Jarvis بعد أيام من تقديم Anthropic لميزة مماثلة ولكنها تبدو أكثر توسعًا لبرنامج Claude AI، والذي تقول إنه مزود بمهارات الكمبيوتر حتى يتمكن من "استخدام مجموعة واسعة من الأدوات القياسية وبرامج الكمبيوتر المصممة للأشخاص". وهو متاح الآن في إصدار تجريبي عام.
المصدر: بوابة الوفد
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.