دراسة: سطح اللسان فريد بالنسبة لكل شخص
تاريخ النشر: 16th, December 2023 GMT
كشفت نتائج جديدة أن الذكاء الاصطناعي والصور ثلاثية الأبعاد للسان البشري، أن سطح اللسان فريد بالنسبة لكل شخص.
وتقدم هذه النتائج نظرة غير مسبوقة على التركيب البيولوجي لسطح اللسان، وكيف تختلف حاسة التذوق واللمس من شخص لآخر، وفق "ساينس دايلي".
وقام فريق البحث بتدريب نماذج حاسوبية تعمل بالذكاء الاصطناعي للتعلم من عمليات المسح المجهري ثلاثي الأبعاد للسان البشري، والتي تظهر السمات الفريدة للحليمات.
وقاموا بتغذية البيانات من أكثر من ألفي مسح تفصيلي للحليمات الفردية، مأخوذة من قوالب السيليكون لألسنة 15 شخصاً، إلى أداة الذكاء الاصطناعي.
واستخدم الفريق كميات صغيرة من البيانات لتدريب نماذج الذكاء الاصطناعي على السمات المختلفة للحليمات، بالإضافة إلى استخدام كبير للطوبولوجيا؛ وهو مجال من الرياضيات يدرس كيفية تنظيم مساحات معينة وترابطها.
ومكّن ذلك أداة الذكاء الاصطناعي من التنبؤ بنوع الحليمات بدقة تصل إلى 85% ورسم خريطة لموضع الحليمات الخيطية والكمئية على سطح اللسان.
ومن اللافت للنظر أنه وُجد أيضاً أن الحليمات كانت مميزة في جميع الأشخاص الخمسة عشر، ويمكن التعرف على الأفراد بدقة تصل إلى 48% من حليمة واحدة.
وقال فريق البحث من جامعتي إدنبرة وليدز: "إن البحث لديه إمكانات هائلة لاكتشاف التفضيلات الغذائية الفردية، وتطوير بدائل غذائية صحية، والتشخيص المبكر لسرطانات الفم في المستقبل".
المصدر: أخبارنا
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
عندما يتحدث البشر.. هل يفهم الذكاء الاصطناعي ما بين السطور ؟!
أبوظبي (وكالات)
بالرغم من التقدم الكبير الذي حققته أنظمة الذكاء الاصطناعي في السنوات الأخيرة لدرجة أنها تفوقت على الإنسان في مجالات عديدة مثل الهندسة والطب وعلوم الفضاء بل وألعاب الذكاء مثل الشطرنج وخلافه، كما أنها طرقت أنشطة إبداعية مثل تأليف الشعر ورسم اللوحات الفنية، ورغم القدرات الحوسبية الفائقة ومليارات الدولارات التي أنفقتها شركات التكنولوجيا العالمية، لا تزال أنظمة الذكاء الاصطناعي متأخرة عن البشر في فهم الإشارات الاجتماعية التي تعبر عن المغزى أو الدلالة الحقيقية للتفاعلات الإنسانية، وبمعنى آخر، لا تستطيع هذه الأنظمة الذكية حتى الآن أن تفهم "ما بين السطور" عندما يتحدث البشر مع بعضهم البعض.
اقرأ أيضاً.."أوبن أيه.آي": انتشار الذكاء الاصطناعي ليس بديلاً عن تعلم اللغات
كيف تم اختبار منظومات الذكاء؟
بحسب دراسة أجراها فريق بحثي بجامعة جون هوبكنز الأميركية، طلب الباحثون من ثلاث مجموعات من المتطوعين مشاهدة مقاطع فيديو لا يزيد طول كل منها عن ثلاث ثواني، وتقييم التفاعلات الاجتماعية بين الأشخاص الذين يظهرون في هذه المقاطع. وفي الوقت نفسه، تم تحليل نفس المقاطع بواسطة اكثر من 350 منظومة للذكاء الاصطناعي متخصصة في مجالات تحليل اللغة والفيديو والصور بغرض فهم مدلول الإشارات الاجتماعية التي يقوم بها البشر في تلك المقاطع. وأثبتت التجربة أن المتطوعين أنجزوا المهمة المطلوبة بسهولة ويسر، في حين أن أنظمة الذكاء الاصطناعي لم تنجح في تفسير دلالات أو معاني محادثات البشر في مقاطع الفيديو. ويرى الباحثون المشاركون في الدراسة أن أنظمة الذكاء الاصطناعي مازال أمامها شوط طويل قبل أن تصل إلى فهم الإشارات الاجتماعية للبشر في بيئات التفاعل الحقيقية، وهو ما ينطوي على تداعيات خطيرة بالنسبة لصناعات صاعدة مثل السيارات ذاتية القيادة أو الروبوتات وغيرها من المجالات التي تتطلب تفاعلات مستمرة بين الإنسان ومنظومات الذكاء الاصطناعي.
وتقول الباحثة ليلى إيزيك استاذ مساعد العلوم المعرفية بجامعة جون هوبكنز ورئيس فريق الدراسة إنه "إذا كنت تريد أن يتفاعل نظام الذكاء الاصطناعي مع الانسان، فلا بد أن يفهم ما الذي يقصده الانسان، وكيف تتفاعل مجموعة من البشر سويا"، مضيفة في تصريحات للموقع الإلكتروني "بوبيولار ساينس" المتخصص في الأبحاث العلمية: "هذه الدراسة في حقيقة الأمر تسلط الضوء على سبب إخفاق أنظمة الذكاء الاصطناعي في أداء هذه المهمة". ورغم أن دراسات سابقة أثبتت قدرة أنظمة الذكاء الاصطناعي على وصف مغزى الصور الثابتة بدرجة تكاد تتساوى مع الانسان، فإن الدراسة الجديدة كانت تهدف إلى قياس ما إذا كان نفس الوضع يسري بالنسبة للصور المتحركة أو مقاطع الفيديو. وتوضح إيزيك أنها اختارت مع فريقها البحثي المئات من مقاطع الفيديو من قاعدة بيانات خاصة، ثم قامت بتقصيرها إلى مدة زمنية لا تزيد عن ثلاث ثواني، مع التركيز على المقاطع التي يظهر فيها شخصان يتفاعلان سويا. وعرض الباحثون مقاطع الفيديو على المتطوعين المشاركين في التجربة ثم استطلاع رأيهم بشأن مغزى التفاعلات بين الأشخاص الذين يظهرون في تلك المقاطع من خلال أسئلة موضوعية على غرار "هل ترى أن الأشخاص في هذه المقاطع يواجهون بعضهم البعض"، واسئلة شخصية مثل: "هل التفاعل بين الأشخاص في مقطع الفيديو يبدو إيجابيا أم سلبيا؟". وتبين من التجربة أن المتطوعين عادة ما يتوصلون إلى إجابات متشابهة تنم عن فهم أساسي مشترك للتفاعلات الانسانية. أما أنظمة الذكاء الاصطناعي، فلم تتوصل إلى نفس درجة الاجماع في تفسير مقاطع الفيديو مقارنة بالمتطوعين. وتقول الباحثة كاثي جارسيا، وهي أحد المشاركين في الدراسة من جامعة جون هوبكنز: "لا يكفي أن يشاهد نظام الذكاء الاصطناعي مقطع الفيديو ويتعرف على الأشكال أو الوجوه، بل نحتاج أن يفهم النظام تطور الأحداث في المشهد، وأن يفهم العلاقات والسياق وديناميكيات التفاعلات الاجتماعية، وهذه الدراسة تشير إلى أن هذا العنصر يعتبر بمثابة نقطة عمياء في تطور منظومات الذكاء الاصطناعي". وتأتي هذه النتائج في الوقت الذي تتسابق فيه شركات التكنولوجيا لدمج أنظمة الذكاء الاصطناعي داخل عدد متزايد من الأجسام الروبوتية، وهم مفهوم يطلق عليه اسم "الذكاء الاصطناعي المتجسد"، وقد تم اختبار هذا المفهوم في عدة مدن أميركية مثل لوس أنجليس وفينيكس وأوستن من خلال سيارات ذاتية القيادة تسير في الطرق بجانب السيارات التي يقودها البشر.
وقد اثبتت التجارب أن أنظمة الذكاء الاصطناعي لهذه السيارات تعاني من قصور في فهم بعض مواقف القيادة المركبة مثل القيادة الدائرية أو منحنيات الرجوع للخلف.
أهمية فهم الإشارات الاجتماعية
وبالرغم من أن بعض الدراسات الحديثة أثبتت أن السيارات ذاتية القيادة قد تكون أقل عرضة للحوادث مقارنة بقائدي السيارات، لا تزال السلطات الرقابية المختصة تجري تحقيقات بشأن ما تردد عن مخالفة بعض هذه السيارات لقواعد السلامة. وقطعت شركات تكنولوجية أخرى مثل بوسطن ديناميكس وفيجر إيه أي وتسلا خطوات أبعد نحو تطوير روبوتات على هيئة بشر تعمل بأنظمة الذكاء الاصطناعي في أماكن صناعية جنبا إلى جنب مع عمال على خطوط الانتاج. ويرى الباحثون أن تمكين أنظمة الذكاء الاصطناعي من فهم الإشارات الاجتماعية بين البشر داخل البيئات الصناعية ينطوي على أهمية بالغة لتلافي خطر وقوع الحوادث الصناعية. وفي ذات السياق، تقول الباحثة إيزيك إن "هذه الدراسة تسلط الضوء على أهمية دمج علوم الذكاء الاصطناعي وعلم الاعصاب والعلوم المعرفية بشكل أكبر مع عناصر العالم الحقيقي".
الذكاء الاصطناعي يتقن تفسير الكلمات، لكنه لا يعيش التجربة البشرية التي تُكسبنا الحدس والفهم العميق. قد يتمكن من تخمين المقصود بناءً على الأنماط، لكنه حتى الآن يفتقر إلى الوعي الكامل بالسياق الثقافي والعاطفي الذي يجعل الكلام "غير المباشر" واضحًا للبشر.
ومع تطور النماذج اللغوية وزيادة دمجها بالبيانات الواقعية والعاطفية، قد يقترب الذكاء الاصطناعي يومًا من قراءة ما بين السطور كما نفعل، أو ربما بطريقته الخاصة.