موجات الدماغ تمكن العلماء من قراءة نوايا الإنسان!
تاريخ النشر: 19th, January 2025 GMT
الثورة نت/..
طور فريق بحثي بقيادة البروفيسور سانغهيون باك من معهد “دايجو كيونغبووك” للعلوم والتكنولوجيا في كوريا الجنوبية شبكة عصبية تستطيع قراءة موجات الدماغ بدقة باستخدام معلومات محددة.
وفقا لما أفادت به صحيفة “تيك إكسبلور” الكورية الجنوبية. وقد تم نشر نتائج البحث في مجلة IEEE Transactions on Neural Networks and Learning Systems.
وتختلف بيانات موجات الدماغ إلى حد بعيد بين شخص وآخر حتى عند تنفيذ نفس المهمة. وكان من الضروري في السابق لتحقيق نتائج مماثلة جمع كمية كبيرة من المعلومات عن موجات دماغ شخص واحد بعد تدريبه مسبقا. ولذلك، يمكن اعتبار نموذج الذكاء الاصطناعي الجديد هذا اختراقا كبيرا.
وقام الفريق البحثي بتطوير نظام معقد متعدد المراحل لتحليل البيانات وتنقيتها من الضوضاء. وتمكنت الخوارزمية من قراءة نوايا المشاركين (أي الحركات التي كانوا ينوون القيام بها) بدقة تصل إلى 76٪. وقال البروفيسور باك: “ستستمر تقنيتنا في التطور حتى يمكن استخدامها بشكل أكثر شمولية في تحليل الإشارات الحيوية المختلفة، مما قد يفتح الباب أمام تطبيقات واسعة في مجالات مثل الطب، والروبوتات، وواجهات التفاعل بين الدماغ والحاسوب”.
ويُعد هذا البحث خطوة مهمة نحو فهم أفضل لكيفية عمل الدماغ البشري وتحويل نوايا الأفراد إلى إجراءات فعلية باستخدام الذكاء الاصطناعي. وقد تكون لهذه التقنية تطبيقات مستقبلية في مساعدة الأشخاص ذوي الإعاقات الحركية أو في تطوير تقنيات التحكم بالأجهزة باستخدام العقل.
المصدر: dzen.ru
المصدر: الثورة نت
إقرأ أيضاً:
غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
أعلنت شركة غوغل عن إطلاق ميزة مبتكرة تحت اسم «Search Live»، تتيح للمستخدمين إجراء محادثات صوتية مباشرة مع محرك البحث عبر «وضع الذكاء الاصطناعي» (AI Mode)، في خطوة تهدف إلى إعادة تعريف تجربة البحث التقليدية وتحويلها إلى تفاعل أكثر حيوية وسلاسة.
تجربة صوتية ذكية في متناول اليد
الميزة متوفرة حالياً لمستخدمي تطبيق غوغل على نظامي «أندرويد» و«iOS» داخل الولايات المتحدة، ضمن إطار تجربة «مختبرات غوغل» (Google Labs)، مع تركيز خاص على تلبية احتياجات المستخدمين الذين يفضلون التفاعل الصوتي أثناء التنقل أو أثناء أداء مهام متعددة دون التوقف عن استخدام أجهزتهم.
كيف تعمل «Search Live»؟
يبدأ المستخدم بالضغط على أيقونة «Live» أسفل شريط البحث، ومن ثم طرح أسئلته صوتياً، ليقوم نموذج الذكاء الاصطناعي بالرد فوراً وبشكل موجز، مع إمكانية متابعة الحوار بنفس السياق دون الحاجة لإعادة صياغة الأسئلة، مما يخلق تجربة تفاعلية مستمرة تشبه التحدث مع مساعد شخصي.
إلى جانب ذلك، تظهر على الشاشة روابط لمصادر موثوقة تمكن المستخدم من التعمق في الموضوع إذا رغب، وتتيح الميزة أيضاً تشغيل المحادثة في الخلفية، مما يسمح بمواصلة التصفح أو استخدام تطبيقات أخرى بحرية دون انقطاع في التواصل الصوتي.
مزايا تقنية متقدمة لتعزيز التفاعل
تعتمد «Search Live» على نسخة مخصصة من نموذج الذكاء الاصطناعي «جيميناي» (Gemini) من غوغل، والذي صُمم لتعزيز دقة وسلاسة التفاعل الصوتي، كما تستفيد الميزة من تقنية «تفرّع الاستعلامات» (Query Fan-out)، التي توسع نطاق النتائج لتشمل مزيجاً من الردود الآلية والبشرية، ما يعزز جودة وعمق المعلومات المقدمة.
آفاق مستقبلية لتجربة بحث متعددة الوسائط
رغم تركيز غوغل الحالي على التفاعل الصوتي، تلمح الشركة إلى خطط تطويرية مستقبلية تتضمن البحث عبر الكاميرا، ما سيوسع تجربة البحث ليشمل وسائط متعددة تمكّن المستخدم من التفاعل مع العالم المحيط بطريقة تشبه التفاعل البشري الطبيعي.
ماذا يعني هذا للمستقبل؟
تشكل «Search Live» خطوة مهمة في مسيرة غوغل لإعادة صياغة مفهوم البحث الإلكتروني، ما يفتح تساؤلات واسعة حول إمكانية أن يكون التفاعل الصوتي الذكي هو المستقبل الجديد للبحث الرقمي في عصر الذكاء الاصطناعي، حيث تصبح المحادثة المباشرة مع محرك البحث جزءاً من روتين الحياة اليومية للمستخدمين حول العالم.