توقعات مستقبلية عن وجود علاقات اجتماعية عميقة بين البشر والروبوتات
تاريخ النشر: 16th, May 2024 GMT
بغداد اليوم - متابعة
يتوقع أن يتطور الذكاء الاصطناعي بشكل سريع في المستقبل حتى أن الناس قد تدخل في علاقات عميقة مع الروبوتات وفق ما أوضحت شركة غوغل.
وأوردت صحيفة الصن البريطانية تصريحات للرئيس التنفيذي للشركة ساندر بيتشاي، قال فيها إن العالم يجب أن يستعد لجميع الاحتمالات مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، وأنه من المهم التخفيف من بعض الجوانب السلبية لاستخدامه.
وأطلقت شركة غوغل العنان لمجموعة من التغييرات الرئيسية في مجال الذكاء الاصطناعي في حدث كبير في سان فرانسيسكو هذا الأسبوع.
ويمكن من خلال هذه التغييرات استخدام أداة صوتية مدعومة بالذكاء الاصطناعي للرؤية حول الغرفة عبر كاميرا الهاتف الذكي، والتعرف على الأشياء على الفور، وحتى تذكر المكان الذي تركت فيه نظارتك.
وفي حديثه للصحافة، قال بيتشاي إن هناك جوانب إيجابية قادمة من الذكاء الاصطناعي مثل استخدامه لمساعدة الأشخاص الذين يعانون من إعاقات في النطق، مضيفا أن "هناك أشخاصا سيستخدمونها للحفاظ على ذكريات أحبائهم".
وتابع الرئيس التنفيذي "لذلك أعتقد أنه سيكون لديك تكنولوجيا بهذه القوة، ونعم، مع مرور الوقت، سيكون لديك أشخاص يدخلون في علاقات عميقة مع مساعدي أو عملاء الذكاء الاصطناعي وما إلى ذلك.
وقال إنه من المهم أن يتم التعامل مع الذكاء الاصطناعي "بطريقة جريئة ومسؤولة"، مما يضمن التفكير بشكل صحيح في وسائل الحماية "لتخفيف بعض الجوانب السلبية".
المصدر:وكالات
المصدر: وكالة بغداد اليوم
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.