تستعد شركة ميتا المالكة لتطبيق التواصل الاجتماعي الشهير واتساب لاختبار ميزة جديدة لمستخدميها تعمل بتقنيات الذكاء الاصطناعي ضمن مجموعة من الميزات التي توفرها الشركة مؤخرا للمستخدمين.

وتمكن الميزة الجديدة مستخدمي التطبيق من صنع صور شخصية لهم عن طريق تقنيات الذكاء الاصطناعي، وبدأ تجربة هذه الميزة في الإصدر التجريبي v2.

24.11.17 من التطبيق الخاص بالهواتف التي تعمل بنظام أندرويد حسبما ذكر موقع WABetaInfo التقني.

صنع صور شخصية

ويستطيع المستخدم من خلال هذه الميزة صنع صور شخصية لملفه بالمواصفات التي يريدها، الأمر الذي يزيد من الخصوصية لصور المستخدمين وحمايتها من السرقة والاستغلال من قبل أشخاص آخرين.

تقليل ظهور الإشعارات غير المرغوب فيها

ويعمل القائمون على التطبيق أيضا على تطوير ميزة أخرى لتقليل ظهور الإشعارات غير المرغوب فيها بالنسبة للمستخدمين، حيث ستعمل هذه الميزة على حذف الإشعارات غير المهمة للمستخدم بشكل تلقائي.

هذا بالإضافة لميزة أخرى جديدة تستعد «ميتا» لطرحها لمستخدمي واتس آب وهي ميزة تدعى «People nearby»، التي ستساعد المستخدمين على مشاركة الملفات دون الحاجة للاتصال بالإنترنت وبسرعات عالية وبمستوى عال من الحفاظ على الخصوصية والأمان.

المصدر: الوطن

كلمات دلالية: واتساب الذكاء الاصطناعي شركة ميتا أندرويد

إقرأ أيضاً:

غوغل تعيد رسم خارطة البحث الطبي بالذكاء الاصطناعي

في عصر يلجأ فيه الملايين إلى الإنترنت يوميا للبحث عن إجابات للأسئلة الصحية، أصبحت الحاجة إلى معلومات طبية موثوقة ودقيقة أكثر إلحاحًا من أي وقت مضى.

ومع تزايد حجم المحتوى الطبي المتاح عبر الشبكة، تواجه منصات البحث، مثل "غوغل"، تحديًا كبيرًا في تحقيق التوازن بين توفير إجابات سريعة وضمان دقتها العلمية.

ويأتي هنا دور الذكاء الاصطناعي كأداة حاسمة لمعالجة هذه المعضلة، إذ تطور "غوغل" تقنيات مبتكرة لفهم الأسئلة الطبية المعقدة، وتصفية المصادر غير الموثوقة، والتعاون مع الخبراء الطبيين لبناء نظام بحث أكثر أمانًا وموثوقية.

"غوغل" دمجت منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية (شترستوك) الذكاء الاصطناعي في خدمة الصحة العامة

دمجت "غوغل" منذ سنوات نماذج الذكاء الاصطناعي في خدماتها الصحية، بدءًا من تحليل صور الأشعة، مرورًا بالتنبؤ بمخاطر الأمراض، ووصولًا إلى تحسين جودة المعلومات الطبية.

ولكن التطورات الجديدة تركز بشكل خاص على فهم نية المستخدم حين يطرح سؤالًا صحيا، والرد عليه بإجابات مبنية على بيانات موثوقة، بل صياغتها بأسلوب مفهوم وسهل.

وتتعلق نسبة كبيرة من عمليات البحث اليومية بالصحة. وفي هذا السياق، تصبح دقة الفهم وتحديد المصدر أمرًا بالغ الحساسية، وخصوصًا عندما تتعلق الأسئلة بحالات حرجة أو أمراض مزمنة أو نصائح علاجية.

الذكاء الاصطناعي يُحسِّن فهم الأسئلة الطبية

تعتمد "غوغل" على نماذج لغوية متقدمة، ولكنها لا تكتفي بالتحليل اللغوي المعتاد، بل تخضع الأسئلة الطبية لسلسلة من العمليات التي تهدف إلى فهم القصد، وتصنيف المستوى الطبي للسؤال، وتحديد حساسيته من حيث كونه يتطلب تدخلًا متخصصًا أو مجرد معلومة عامة. ويأتي هنا دور تقنيات معالجة اللغة الطبيعية من أجل تحليل الأسئلة الطبية التي يكتبها المستخدمون بأشكال مختلفة.

وفي عام 2019، قدمت "غوغل" النموذج اللغوي "بيرت" (BERT) الذي يحسّن فهم السياق في الجملة من خلال تحليل علاقة الكلمات ببعضها بدلًا من معالجتها بشكل منفرد.

إعلان

ويعد هذا النموذج مفيدًا في تفسير الأسئلة الطبية التي تحتوي على مصطلحات متخصصة أو الأسئلة التي تكتب باللغة العامية.

وعندما يبحث شخص عن "ألم في الصدر مع دوخة"، يحدد النموذج اللغوي العلاقة بين الأعراض ويقترح أسبابًا محتملة، مثل وجود مشاكل قلبية أو انخفاض ضغط الدم، بدلًا من تقديم نتائج عامة.

ولا يقتصر دوره على استرجاع صفحات تحتوي على كلمات مطابقة، بل على فهم القصد الحقيقي خلف السؤال وتفسير السياق وتحليل النية بطريقة أقرب إلى التفكير البشري.

كذلك طوّرت "غوغل" أنظمة ذكاء اصطناعي قادرة على التمييز بين الاستخدامات المختلفة للمصطلح الطبي نفسه.

فعلى سبيل المثال، فإن كلمة "ورم" قد تشير إلى حالة خطيرة أو إلى ورم حميد، حسب السياق. وتعتمد الخوارزميات على تحليل آلاف الوثائق الطبية والدراسات العلمية لتعلم الفروق الدقيقة.

وكشفت "غوغل" عن نموذج "ميد-بالم" (Med-PaLM) المدرب خصيصًا على بيانات طبية، ويعدّ أحد النماذج الأولى القادرة على الإجابة عن أسئلة طبية معقدة بدقة توازي دقة الأطباء البشر في بعض الاختبارات.

ويستطيع هذا النموذج معالجة أشكال متنوعة من البيانات الطبية، بما في ذلك النصوص والصور، مثل الأشعة السينية والمسح الضوئي، وحتى المعلومات الجينية، مما يتيح فهمًا أكثر شمولًا لصحة المريض.

حرب خفية ضد التضليل

لا شك في أن واحدة من أخطر الإشكالات التي تواجه المستخدم اليوم هي تداخل المعلومات الطبية الصحيحة مع المحتوى غير الدقيق أو المضلل أو حتى الضار.

ومن أجل مواجهة هذا التحدي، تلعب الخوارزميات الجديدة دورًا محوريا في غربلة المحتوى وتصنيفه بالاعتماد على أنظمة تصنيف المصادر.

ولا تنظر هذه الأنظمة إلى شهرة الموقع أو عدد الزيارات فقط، بل تقيّم جملة مؤشرات، مثل وجود مراجعة طبية واضحة للمحتوى، والكشف عن اسم المؤلف وخبرته، وذكر المصادر العلمية الأصلية، وتوافق المعلومات مع الإرشادات الطبية الموصى بها عالميا.

وقد أدخلت الشركة تحسينات جوهرية على الخوارزميات التي تستخدم عند التعامل مع المحتوى الصحي، لتصنيف مدى ثقة المستخدم بالمعلومة قبل أن تظهر له.

وتعطي "غوغل" الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية، في حين تكتشف الخوارزميات المحتوى الذي يعتمد على نظريات مؤامرة أو ادعاءات غير مدعومة بدراسات.

كما تعتمد "غوغل" لمراجعة المحتوى الطبي على تعاونها مع منظمات، مثل "منظمة الصحة العالمية" (WHO) و"مايو كلينك" (Mayo Clinic) و"المركز الأميركي لمكافحة الأمراض" (CDC).

"غوغل" تعطي الأولية للمحتوى الذي يُحدّث وفقًا لأحدث الأبحاث الطبية (شترستوك) الجسر بين التكنولوجيا والممارسة السريرية

لا يمكن للذكاء الاصطناعي وحده أن يحل محل الخبرة البشرية في المجال الطبي. لذلك، تعتمد "غوغل" على شراكات إستراتيجية مع أطباء وباحثين لضمان توافق تقنياتها مع الممارسات السريرية الحالية.

وقد وظفت الشركة أطباء واختصاصيين يعملون بشكل مباشر مع فرق تطوير الذكاء الاصطناعي لمراجعة النتائج وتقديم ملاحظات علمية تسهم في تدريب النماذج.

وتستخدم هذه المراجعات لاحقًا لتحسين أداء أنظمة البحث وضبط استجابات الذكاء الاصطناعي بناء على الملاحظات الإكلينيكية الفعلية.

إعلان

وساعدت هذه الشراكات في تقليل ظهور المعلومات غير الدقيقة بنسبة كبيرة في بعض المواضيع الطبية العالية الحساسية، مثل السرطان والاكتئاب وصحة الأطفال.

وبالتعاون مع جامعات مثل "هارفارد" و "ستانفورد"، تطور "غوغل" أدوات تساعد الأطباء في تشخيص الأمراض عبر دمج الذكاء الاصطناعي مع البيانات السريرية.

وتتيح "غوغل" لمنظمات طبية إمكانية تحديث المحتوى الطبي مباشرة في قاعدة بياناتها، بما يضمن وصول المستخدمين إلى أحدث التوصيات.

الحدود الأخلاقية لتدخل الذكاء الاصطناعي في الصحة

رغم كل هذا التقدم، تعترف "غوغل" أن الذكاء الاصطناعي ليس بديلًا عن التشخيص الطبي.

وتحرص الشركة في جميع النتائج التي تتعلق بالصحة على إضافة عبارات تحذيرية تؤكد ضرورة مراجعة الطبيب المختص وعدم الاعتماد الكلي على المعلومات المقدمة.

كما وضعت سياسات تمنع استخدام منصاتها للإعلانات التي تروّج لعلاجات غير مثبتة علميا، أو التي تستغل مخاوف المرضى. وتُراجع هذه السياسات دوريا بالتعاون مع جهات رقابية وصحية عالمية.

التحديات والانتقادات

لا تزال جهود "غوغل" تواجه انتقادات، منها الخصوصية والتحيز الخوارزمي والمسؤولية القانونية والأخطاء والهلاوس التي قد تنتج عن الأنظمة الجديدة.

ويتطلب بناء النماذج الطبية الوصول إلى بيانات حساسة للمرضى، ويثير مخاوف قانونية وأخلاقية. وحذر بعض المراقبين من أن "غوغل" قد تستخدم بيانات صحية من دون موافقة المرضى.

وإذا كانت البيانات المستخدمة في التدقيق تمثل فئة ديمغرافية معينة، فإن ذلك يعني إهمال احتياجات مجموعات أخرى.

كما أن هناك نقاشات مستمرة حول من يتحمل مسؤولية الخطأ في التشخيص الافتراضي وتبعاته الصحية.

ختامًا، بين خوارزميات تصفية المحتوى، وفهم السياق الطبي، والتعاون مع الخبراء، تضع "غوغل" الذكاء الاصطناعي في قلب إستراتيجيتها لتقديم تجربة بحث صحي أكثر موثوقية وإنسانية.

وتطمح الشركة إلى أن تصبح شريكًا معرفيا في الرعاية الصحية الرقمية، مستندة إلى الخوارزميات الدقيقة، والمصادر الموثوقة، والشراكات مع القطاع الطبي.

مقالات مشابهة

  • غوغل تعيد رسم خارطة البحث الطبي بالذكاء الاصطناعي
  • أخبار التكنولوجيا | سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي.. 4 ميزات مبتكرة تغير طريقة تواصلك على واتساب
  • مفاجأة كبرى لمستخدمي واتساب حول العالم.. تحقق من هاتفك الآن
  • واتساب كما لم تعرفه من قبل.. 4 ميزات مبتكرة تغير طريقة تواصلك
  • واتساب يعمل على إضافة ميزة جديدة.. إليك كيفية تطبيقها
  • واتساب تكشف عن 4 ميزات جديدة لتعزيز الذكاء الاصطناعي للمستخدمين
  • واتساب يطور ميزة لأندرويد لمسح المستندات بالكاميرا مباشرةً
  • 3 ميزات جديدة قادمة إلى Google Messages .. إحداها وصلت بالفعل
  • تطوير أول دمية باربي بالذكاء الاصطناعي
  • عصر حرب الطائرات الـمُـسَـيَّـرة بالذكاء الاصطناعي قادم