“المرأة اللطيفة”.. ماذا تخبرنا أصوات تطبيقات الذكاء الاصطناعي ؟
تاريخ النشر: 30th, June 2024 GMT
انتقدت صحيفة “نيويورك تايمز” التقنيات الصوتية التي تستخدمها تطبيقات الذكاء الاصطناعي، مشيرة إلى أن مطوري الذكاء الاصطناعي يحاولون تقليد أفلام هوليوود التي تخيلت منذ عقود أن أصوات الآلات يجب أن تكون لطيفة وأنثوية. وبالتالي، تم تصنيع الأصوات بناءً على تصورات سينمائية قديمة حول كيفية تحدث الآلات.
ذكرت الصحيفة أنه في الشهر الماضي، كشفت شركة “أوبن إيه آي” (OpenAI) عن ترقيات لبرنامج الدردشة الآلي الخاص بها الذي يعمل بالذكاء الاصطناعي.
وأشارت الصحيفة إلى أن صوت “شات جي بي تي”، الذي يُدعى “سكاي” (Sky)، كان يتمتع بصوت أجش وتأثير مهدئ ومثير في الوقت نفسه، وكان لطيفًا ومنطويًا على نفسه، ما جعله يبدو وكأنه قابل للاستخدام في أي شيء.
وأشارت إلى أنه بعد ظهور “سكاي” لأول مرة، أعربت جوهانسون عن استيائها من الصوت “المشابه بشكل مخيف لصوتها”، وقالت إنها رفضت سابقا طلب “أوبن إيه آي” بأن تقوم بصوت الروبوت.
وردت الشركة بأن سكاي قامت بأداء صوتها “ممثلة محترفة مختلفة”، لكنها وافقت على إيقاف صوتها مؤقتا احتراما لجوهانسون. لكن بدأ مستخدمو Bereft OpenAI بتقديم عريضة لإعادتها.
ووفقا للصحيفة، يحب منشئو الذكاء الاصطناعي تسليط الضوء على القدرات الطبيعية المتزايدة لأدواتهم، لكن أصواتهم الاصطناعية مبنية على طبقات من الحيلة والإسقاط. تمثل “سكاي” أحدث طموحات “أوبن إيه آي”، لكنها تعتمد على فكرة قديمة وهي أن روبوت الذكاء الاصطناعي هو امرأة متعاطفة ومذعنة.
وكانت سامانثا خليطا من الأم، والسكرتيرة، والصديقة، وكانت بمثابة كائن مريح متعدد الأغراض يتحدث مباشرة في آذان مستخدميها. وحتى مع تقدم تكنولوجيا الذكاء الاصطناعي، تتم إعادة تشفير هذه الصور النمطية مرارا وتكرارًا.
وأشارت الصحيفة إلى أن أصوات النساء غالباً ما غذت التقنيات المتخيلة قبل أن يتم دمجها في تقنيات حقيقية. وبمجرد أن بدأت شركات التكنولوجيا في تسويق المساعدين الافتراضيين، مثل سيري من شركة أبل، وأليكسا من أمازون، وكورتانا من مايكروسوفت، أصبحت أصواتها مؤنثة أيضًا.
وأوضحت أن هؤلاء المساعدين الصوتيين من الموجة الأولى، الذين كانوا يتوسطون علاقاتنا مع التكنولوجيا لأكثر من عقد من الزمن، لديهم نبرة صوتية نسائية، ويتم تمييز أصواتهم البشرية من خلال رتوش ميكانيكية، إذ أنه غالبًا ما يتحدثون بإيقاع محسوب ذي نغمة واحدة.
لكن الصحيفة أوضحت أن حقيقة أنها تبدو وكأنها روبوتية تزيد من جاذبيتها، فهي تبدو قابلة للبرمجة والتلاعب بها وخاضعة لمطالبنا، كما أنها لا تجعل البشر يشعرون كما لو أنهم أكثر ذكاء منها.
وذكرت أنه تم تصميم برنامج تحويل الصوت إلى كلام لجعل الوسائط المرئية في متناول المستخدمين ذوي الإعاقات المعينة.
ووفقا للصحيفة، منذ أن طرحت “تيك توك” ميزة تحويل النص إلى كلام في عام 2020، طورت مجموعة من الأصوات المحاكية للاختيار من بينها، وهي تقدم الآن أكثر من 50 صوتا، بما في ذلك أصوات تسمى “هيرو” و”ستوري تيلير” و”بيستي”، لكن النظام الأساسي أصبح محددا بخيار واحد وهو “جيسي”، وهو صوت المرأة المفعم بالحيوية مع مسحة آلية غامضة قليلا.
وأشارت الصحيفة إلى أن هذا الصوت الاصطناعي استمر في الهيمنة، حتى مع تقدم التكنولوجيا التي تقف وراءه.
الحرة
إنضم لقناة النيلين على واتسابالمصدر: موقع النيلين
كلمات دلالية: الذکاء الاصطناعی إلى أن
إقرأ أيضاً:
الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.
يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".
مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".
يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".
بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.
وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات
كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.
أخبار ذات صلةيقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.
يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".
كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.
ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".
يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".
ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.
ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)