«ميتا» ستطلق تطبيقاً للذكاء الاصطناعي التوليدي
تاريخ النشر: 28th, February 2025 GMT
تستعد «ميتا» لإطلاق نسخة مستقلة من واجهة الذكاء الاصطناعي التوليدي الخاصة بها «ميتا إيه آي»، المدمجة حتى الآن في شبكات فيسبوك، وثريدز، وإنستغرام، أو خدمتي المراسلة واتساب ومسنجر، على ما أفادت وسائل إعلام أميركية الخميس.
ورفضت المجموعة التعليق على الموضوع في اتصال مع وكالة فرانس برس.
ومن شأن تقديم «ميتا إيه آي» Meta AI كتطبيق مستقل أن يسمح لـ«ميتا» بالتنافس مباشرة مع برامج الذكاء الاصطناعي التوليدي الكبيرة مثل، «تشات جي بي تي» («أوبن إيه آي») أو «جيميناي» («جوجل») أو «كلود» («أنثروبيك»).
وقد أُطلقت «ميتا إيه آي» في سبتمبر 2023، وكانت تقتصر في السابق على منصات الشركة الحالية، ولم يكن من الممكن استخدامها بشكل مستقل.
في أبريل 2024، استبدلت المجموعة وظيفة البحث التقليدية على شبكات التواصل الاجتماعي والمراسلة الخاصة بها بـ«ميتا إيه آي».
كان من الممكن أيضاً الوصول إلى «ميتا إيه آي» عبر موقع إلكتروني مخصص، ولكن ليس في شكل تطبيق.
وقد جعل رئيس مجموعة ميتا مارك زاكربرغ الذكاء الاصطناعي أولوية.
وتخطط المجموعة لاستثمار ما بين 60 و65 مليار دولار هذا العام، معظمها في مراكز البيانات والخوادم والبنية الأساسية للشبكات، والتي تُعتبر ضرورية لتطوير الذكاء الاصطناعي.
وقال مارك زاكربرغ، خلال تقديم النتائج السنوية لعام 2024 في أواخر يناير: «أتوقع أن يتجاوز مساعد قائم على الذكاء الاصطناعي عتبة مليار مستخدم هذا العام، وبالنسبة لي، سيكون ميتا إيه آي».
وأضاف: «بمجرد أن تصل الخدمة إلى هذا النطاق، فإنها عادة ما تحظى بريادة مستدامة».
أخبار ذات صلة
المصدر: صحيفة الاتحاد
كلمات دلالية: ميتا الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
طوّر فريق من جامعة واشنطن تقنية ذكاء اصطناعي جديدة تساعد الأشخاص الذين يواجهون صعوبة في السمع داخل الأماكن الصاخبة، عبر تتبّع إيقاع المحادثة وكتم الأصوات غير المتوافقة.
وجرى دمج التقنية، التي عُرضت في مؤتمر الأساليب التجريبية في معالجة اللغات الطبيعية في سوتشو بالصين، في نموذج أولي يستخدم مكوّنات جاهزة وقادر على التعرّف على المتحدثين خلال ثانيتين إلى أربع ثوانٍ فقط، وتم تشغيله داخل سماعات رأس ذكية.
ويتوقع الباحثون أن تُستخدم مستقبلاً في أجهزة السمع وسماعات الأذن والنظارات الذكية لتصفية البيئة الصوتية دون تدخل يدوي.
اقرأ أيضاً: نظارات بالذكاء الاصطناعي تمنح ضعاف السمع قدرات خارقة
السمع الاستباقي
قال شيام غولاكوتا، الباحث الرئيس، إن التقنيات الحالية تعتمد غالباً على أقطاب تُزرع في الدماغ لتحديد المتحدث الذي يركز عليه المستخدم، بينما يستند النظام الجديد إلى إيقاع تبادل الأدوار في الحديث، بحيث يتنبأ الذكاء الاصطناعي بتلك الإيقاعات اعتماداً على الصوت فقط.
ويبدأ النظام، المسمّى "مساعدو السمع الاستباقيون"، العمل عند بدء المستخدم بالكلام، إذ يحلل نموذج أول من يتحدث ومتى، ثم يرسل النتائج إلى نموذج ثانٍ يعزل أصوات المشاركين ويوفر نسخة صوتية منقّاة للمستمع.
ابتكار أداة ذكاء اصطناعي لعلاج أحد أخطر أمراض العيون
نتائج إيجابية
أفاد الفريق بأن النظام يتميز بسرعة تمنع أي تأخير ملحوظ، ويمكنه معالجة صوت المستخدم إلى جانب صوت واحد إلى أربعة مشاركين.
وخلال تجارب شملت 11 مشاركاً، حصل الصوت المفلتر على تقييم يزيد بأكثر من الضعف مقارنة بالصوت غير المفلتر. ولا تزال بعض التحديات قائمة، خصوصاً في المحادثات الديناميكية ذات التداخل العالي، أو تغير عدد المشاركين.
ويعتمد النموذج الحالي على سماعات رأس تجارية مزوّدة بميكروفونات، لكن غولاكوتا يتوقع تصغير التقنية مستقبلاً لتعمل داخل رقاقة ضمن سماعة أذن أو جهاز سمع.
أمجد الأمين (أبوظبي)