أسامة عبد الرؤوف: الحوار مع الذكاء الاصطناعي قد يدفع الفرد للتخلص من حياته
تاريخ النشر: 4th, November 2024 GMT
قال الدكتور أسامة عبد الرؤوف، عميد كلية الذكاء الاصطناعي، إنّ حادث انتحار مراهق في الولايات المتحدة الأمريكية بسبب تأثره بحوار مع أحد تطبيقات الذكاء الاصطناعي له أبعاد كثيرة سواء في اتجاهات تطوير تطبيقات الذكاء الاصطناعي، أو الاتجاهات التعليمية، أو النفسية، موضحا أنّ الحوار مع أحد تطبيقات الذكاء الاصطناعي يفوق الـ18 عاما.
وأضاف «عبد الرؤوف»، خلال لقائه مع الإعلاميين محمد الشاذلي وجومانا ماهر، ببرنامج «صباح الخير يا مصر»، المذاع على القناة الأولى والفضائية المصرية، أنّ المراهق المنتحر كان في عمر 14 سنة واندمج في حوار مع شخصية خيالية على أحد تطبيقات الذكاء الاصطناعي، مشيرا إلى أنّ المراهق ارتبط بالشخصية وأدمن الحديث معها.
وتابع: «حادث الانتحار يعطينا مؤشر لوجود اندماج شديد بين الإنسان وشخصية الذكاء الاصطناعي لدرجة تجعل الشخص ينسى أنها مجرد شخصية مفتعلة وأنيميشن»، لكن العلاقات الإنسانية مع الأسرة والأصدقاء والحوار الطبيعي معهم يجنب الشخص اللجوء للحوار مع شخصية افتراضية على الذكاء الاصطناعي».
اقرأ أيضاًالمجلس الثقافي البريطاني يجمع بقادة المدارس لمناقشة الابتكار والذكاء العاطفي
وزير العمل يُشارك في المؤتمر الدولي السابع «ضمان جودة التعليم في عصر الذكاء الاصطناعي»
عالميا.. جوجل تطلق ميزة البحث بالذكاء الاصطناعي AI Overviews
المصدر: الأسبوع
كلمات دلالية: الانتحار الذكاء الاصطناعي الولايات المتحدة الأمريكية تطبيقات الذكاء الاصطناعي تطبیقات الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
طوّر فريق من جامعة واشنطن تقنية ذكاء اصطناعي جديدة تساعد الأشخاص الذين يواجهون صعوبة في السمع داخل الأماكن الصاخبة، عبر تتبّع إيقاع المحادثة وكتم الأصوات غير المتوافقة.
وجرى دمج التقنية، التي عُرضت في مؤتمر الأساليب التجريبية في معالجة اللغات الطبيعية في سوتشو بالصين، في نموذج أولي يستخدم مكوّنات جاهزة وقادر على التعرّف على المتحدثين خلال ثانيتين إلى أربع ثوانٍ فقط، وتم تشغيله داخل سماعات رأس ذكية.
ويتوقع الباحثون أن تُستخدم مستقبلاً في أجهزة السمع وسماعات الأذن والنظارات الذكية لتصفية البيئة الصوتية دون تدخل يدوي.
اقرأ أيضاً: نظارات بالذكاء الاصطناعي تمنح ضعاف السمع قدرات خارقة
السمع الاستباقي
قال شيام غولاكوتا، الباحث الرئيس، إن التقنيات الحالية تعتمد غالباً على أقطاب تُزرع في الدماغ لتحديد المتحدث الذي يركز عليه المستخدم، بينما يستند النظام الجديد إلى إيقاع تبادل الأدوار في الحديث، بحيث يتنبأ الذكاء الاصطناعي بتلك الإيقاعات اعتماداً على الصوت فقط.
ويبدأ النظام، المسمّى "مساعدو السمع الاستباقيون"، العمل عند بدء المستخدم بالكلام، إذ يحلل نموذج أول من يتحدث ومتى، ثم يرسل النتائج إلى نموذج ثانٍ يعزل أصوات المشاركين ويوفر نسخة صوتية منقّاة للمستمع.
ابتكار أداة ذكاء اصطناعي لعلاج أحد أخطر أمراض العيون
نتائج إيجابية
أفاد الفريق بأن النظام يتميز بسرعة تمنع أي تأخير ملحوظ، ويمكنه معالجة صوت المستخدم إلى جانب صوت واحد إلى أربعة مشاركين.
وخلال تجارب شملت 11 مشاركاً، حصل الصوت المفلتر على تقييم يزيد بأكثر من الضعف مقارنة بالصوت غير المفلتر. ولا تزال بعض التحديات قائمة، خصوصاً في المحادثات الديناميكية ذات التداخل العالي، أو تغير عدد المشاركين.
ويعتمد النموذج الحالي على سماعات رأس تجارية مزوّدة بميكروفونات، لكن غولاكوتا يتوقع تصغير التقنية مستقبلاً لتعمل داخل رقاقة ضمن سماعة أذن أو جهاز سمع.
أمجد الأمين (أبوظبي)