الذكاء الاصطناعي على طاولة مؤتمر مجمع اللغة العربية يوم 14 أبريل المقبل
تاريخ النشر: 28th, October 2024 GMT
أعلن مجمع اللغة العربية بالقاهرة برئاسة برئاسة عبدالوهاب عبدالحافظ عقد المؤتمر السنوي في دورته الـ91 تحت عنوان «إثراء اللغة العربية: الوسائل والغايات»، في الفترة من 14 من أبريل حتى 24 من أبريل 2025م.
ويناقش المؤتمر مجموعة من القضايا منها: التعريب والترجمة، نهضة الإبداع الأدبي، ودورها في إثراء اللغة العربية، الذكاء الاصطناعي ووسائل التقنية الحديثة، واجبات المؤسسات المَعْنِيَّة باللغة في إثراء اللغة العربية، دور وسائل الإعلام في إثراء اللغة العربية، لغة الإعلان: الإيجابيات والسلبيات.
ودعا مجمع اللغة العربية دعوته إلى رؤساء مجامع اللغة العربية وأعضاء مؤتمره وأعضائه المراسلين، فضلًا عن أعضائه من المصريين، للمشاركة ببحوثهم العلمية في فعاليات مؤتمر المجمع المقبل، وحدَّد المجمع 20 فبراير المقبل موعدًا أقصى لتلقي الأبحاث العلمية.
أبرز ملفات مؤتمر المجمع العلميويناقش المؤتمر في جلساته المغلقة عددًا من المصطلحات اللغوية والعلمية المقدَّمة من لجان: الكيمياء والصيدلة، والعلوم الشرعية، وعلوم البيئة، والرياضيات، ولغة الشعر العربي، والطب، والتربية وعلم النفس، والألفاظ والأساليب، واللهجات والبحوث اللغـوية، والحاسبات، والفيزياء، والإعلام، وعلوم الأحياء والزراعة، والهندسة، والجيولوجيا، والنفط، والعلوم الفلسفية، وأصول اللغة، كما يناقش مواد من المعجم الكبير.
المصدر: الوطن
كلمات دلالية: مجمع اللغة العربية الثقافة رئيس مجمع اللغة العربية
إقرأ أيضاً:
غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
أعلنت شركة غوغل عن إطلاق ميزة مبتكرة تحت اسم «Search Live»، تتيح للمستخدمين إجراء محادثات صوتية مباشرة مع محرك البحث عبر «وضع الذكاء الاصطناعي» (AI Mode)، في خطوة تهدف إلى إعادة تعريف تجربة البحث التقليدية وتحويلها إلى تفاعل أكثر حيوية وسلاسة.
تجربة صوتية ذكية في متناول اليد
الميزة متوفرة حالياً لمستخدمي تطبيق غوغل على نظامي «أندرويد» و«iOS» داخل الولايات المتحدة، ضمن إطار تجربة «مختبرات غوغل» (Google Labs)، مع تركيز خاص على تلبية احتياجات المستخدمين الذين يفضلون التفاعل الصوتي أثناء التنقل أو أثناء أداء مهام متعددة دون التوقف عن استخدام أجهزتهم.
كيف تعمل «Search Live»؟
يبدأ المستخدم بالضغط على أيقونة «Live» أسفل شريط البحث، ومن ثم طرح أسئلته صوتياً، ليقوم نموذج الذكاء الاصطناعي بالرد فوراً وبشكل موجز، مع إمكانية متابعة الحوار بنفس السياق دون الحاجة لإعادة صياغة الأسئلة، مما يخلق تجربة تفاعلية مستمرة تشبه التحدث مع مساعد شخصي.
إلى جانب ذلك، تظهر على الشاشة روابط لمصادر موثوقة تمكن المستخدم من التعمق في الموضوع إذا رغب، وتتيح الميزة أيضاً تشغيل المحادثة في الخلفية، مما يسمح بمواصلة التصفح أو استخدام تطبيقات أخرى بحرية دون انقطاع في التواصل الصوتي.
مزايا تقنية متقدمة لتعزيز التفاعل
تعتمد «Search Live» على نسخة مخصصة من نموذج الذكاء الاصطناعي «جيميناي» (Gemini) من غوغل، والذي صُمم لتعزيز دقة وسلاسة التفاعل الصوتي، كما تستفيد الميزة من تقنية «تفرّع الاستعلامات» (Query Fan-out)، التي توسع نطاق النتائج لتشمل مزيجاً من الردود الآلية والبشرية، ما يعزز جودة وعمق المعلومات المقدمة.
آفاق مستقبلية لتجربة بحث متعددة الوسائط
رغم تركيز غوغل الحالي على التفاعل الصوتي، تلمح الشركة إلى خطط تطويرية مستقبلية تتضمن البحث عبر الكاميرا، ما سيوسع تجربة البحث ليشمل وسائط متعددة تمكّن المستخدم من التفاعل مع العالم المحيط بطريقة تشبه التفاعل البشري الطبيعي.
ماذا يعني هذا للمستقبل؟
تشكل «Search Live» خطوة مهمة في مسيرة غوغل لإعادة صياغة مفهوم البحث الإلكتروني، ما يفتح تساؤلات واسعة حول إمكانية أن يكون التفاعل الصوتي الذكي هو المستقبل الجديد للبحث الرقمي في عصر الذكاء الاصطناعي، حيث تصبح المحادثة المباشرة مع محرك البحث جزءاً من روتين الحياة اليومية للمستخدمين حول العالم.