معدلات عالمية مقلقة تضع التوحد بين أهم مشاكل الطفولة
تاريخ النشر: 24th, December 2024 GMT
قالت دراسة جديدة إن 1 من كل 127 فرداً في جميع أنحاء العالم في عام 2021 كان مصاباً بالتوحد، ما يضع طيف التوحد ضمن الأسباب الـ 10 الأولى للعبء الصحي غير المميت للأطفال والمراهقين الذين تقل أعمارهم عن 20 عاماً.
وقدّرت الدراسة التي نشرت في مجلة "لانسيت" أن ما يقرب من 62 مليون شخص في عام 2021 كانوا مصابين باضطراب طيف التوحد.
وتُظهر هذه الأرقام مدى أهمية تشخيص التوحد في وقت مبكر من حياة الطفل، حتى يتمكن من تلقي العلاج الذي سيساعده طوال فترة حياته.
وأشار فريق البحث من معهد جامعة واشنطن لقياسات الصحة إلى ضرورة "معالجة ليس فقط احتياجات الأطفال والمراهقين المصابين بالتوحد، ولكن أيضًا احتياجات البالغين، الذين غالباً ما يظلون ممثلين تمثيلاً ناقصاً في البحث وتقديم الخدمات".
وبحسب "هيلث داي"، جمع الباحثون بيانات من 105 دراسات حول معدلات التوحد في 33 دولة.
ووجد الباحثون أن معدلات التوحد زادت بشكل كبير، إلى 1 من كل 127 شخصاً في عام 2021، مقارنة بـ 1 من كل 271 في عام 2019.
لكنهم قالوا إن هذه الزيادة تعزى بشكل أساسي إلى التغييرات في طريقة اكتشاف التوحد وتقديره.
وأشار الباحثون إلى أن المعدل أعلى بكثير حتى من تقديرات مراكز السيطرة على الأمراض والوقاية منها الحالية التي تبلغ 1 من كل 36 طفلاً.
كما لفت الباحثون الانتباه إلى أن التوحد أكثر شيوعاً بنحو 4 مرات بين الصبيان مقارنة بالفتيات.
المصدر: موقع 24
كلمات دلالية: سقوط الأسد حصاد 2024 الحرب في سوريا عودة ترامب خليجي 26 عام على حرب غزة إيران وإسرائيل إسرائيل وحزب الله غزة وإسرائيل الإمارات التوحد فی عام
إقرأ أيضاً:
نماذج ذكاء اصطناعي تغير إجاباتها تبعا لطريقة تحدث المستخدم
أظهرت دراسة جديدة من جامعة أكسفورد أن نماذج الذكاء الاصطناعي مفتوحة المصدر تتأثر بإفتراضات حول هوية المستخدم، مثل العرق والجنس والعمر، مما يغير إجاباتها على أسئلة واقعية تتعلق بالرواتب، النصائح الطبية، الحقوق القانونية، والمزايا الحكومية.
إجابات متغيرة بناء على هوية المستخدموجد الباحثون أن نموذجين من نماذج الذكاء الاصطناعي المفتوحة المصدر، مثل Llama3 من Meta وQwen3 من Alibaba، يقدمان إجابات مختلفة بناء على افتراضات حول الهوية العرقية والجنسية للمستخدم. على سبيل المثال، قد يوصي أحد النماذج براتب مبدئي أقل للمتقدمين غير البيض.
وأكد الباحثون أن هذه التغيرات في الإجابات تظهر حتى عندما تكون الأسئلة موضوعية وينبغي أن تكون الإجابة عليها محايدة وغير مرتبطة بهوية الشخص.
التأثيرات الخطيرة على نصائح الصحة والقانونأظهرت الدراسة أن الذكاء الاصطناعي لا يقدم نصائح حيادية في مجالات هامة مثل الرعاية الصحية، النصائح القانونية، وتقديم مزايا حكومية.
فحتى عندما يصف المستخدمون الأعراض نفسها، تختلف الإجابات بناء على هوية المستخدم، على سبيل المثال، قد ينصح الأشخاص من خلفيات عرقية مختلفة بزيارة الطبيب بناء على نفس الأعراض.
كما لاحظ الباحثون أن بعض الخدمات الصحية النفسية بدأت تستخدم روبوتات المحادثة المدعومة بالذكاء الاصطناعي لتحديد ما إذا كان الشخص بحاجة لمساعدة إنسانية، وهذا يشير إلى أن هناك قلقا متزايدا بشأن تأثير هذه التحيزات على قرارات الصحة النفسية.
التحيزات الخفية في الذكاء الاصطناعيمن المهم أن نلاحظ أن هذه التحيزات لا تظهر من إشارات واضحة مثل ذكر المستخدم لجنسه أو عرقه، بل تنشأ من أنماط لغوية خفية يتم استخلاصها من طريقة الكتابة، وهذه الأنماط تكون سهلة التجاهل، مما يجعل من الصعب اكتشاف هذا النوع من التحيزات.
دعوة لمراجعة الأساليب وأدوات مكافحة التحيزدعا الباحثون إلى تطوير أدوات جديدة لاكتشاف هذا السلوك الخفي قبل أن يتم استخدام هذه النماذج على نطاق واسع، وقدموا مرجعا جديدا لمساعدة الأبحاث المستقبلية في هذا المجال.
وأشاروا إلى أنه من الضروري تطوير معايير لمكافحة التحيزات اللغوية في نماذج الذكاء الاصطناعي لضمان عدم تأثيرها على القرارات الهامة في الحياة اليومية.
نتائج الدراسة: التحيزات على أساس العرق والجنسأظهرت الدراسة أن نماذج الذكاء الاصطناعي كانت أكثر حساسية لعرق وجنس المستخدم عند الإجابة على الأسئلة، على سبيل المثال، كانت هناك تغييرات كبيرة في الإجابات بالنسبة للأشخاص السود مقارنة بالبيض، وللإناث مقارنة بالذكور.
التأثيرات على الرواتب والنصائح الطبيةفيما يتعلق بالرواتب، وجد الباحثون أن النماذج تميل إلى تقديم رواتب أقل للأشخاص غير البيض مقارنة بالبيض، أما في مجال النصائح الطبية، فقد تم إخبار الأشخاص من العرق الأسود بزيارة الطبيب أكثر من الأشخاص البيض، حتى وإن كانت الأعراض هي نفسها.
أوصت الدراسة بتوسيع هذه الاختبارات لتشمل المزيد من نماذج الذكاء الاصطناعي، بما في ذلك تلك المدعومة عبر واجهات التطبيقات فقط مثل ChatGPT.
ويشير الباحثون إلى أن التخصيص الذي تقوم به نماذج الذكاء الاصطناعي قد يتضمن افتراضات غير مرحب بها حول هوية المستخدمين، مما قد يؤثر سلبا على نوعية الاستجابة المقدمة لهم.
توضح الدراسة من أكسفورد أن النماذج الحالية من الذكاء الاصطناعي لا تقدم دائما إجابات محايدة وتكشف عن التحديات التي تواجه الباحثين في توجيه هذه الأنظمة بشكل أخلاقي ومتوازن.