حسابات الذكاء الاصطناعي تهدد مستقبل فيسبوك وإنستجرام
تاريخ النشر: 2nd, January 2025 GMT
ما الذي يتمنى المستخدمون رؤيته بشكل أكبر على منصات مثل Instagram وFacebook؟ هل هي المزيد من المنشورات من الأصدقاء والمعارف؟ أم المحتوى الأصلي الحقيقي حول الموضوعات التي تثير اهتمامهم؟ يبدو أن Meta قررت تقديم خيار آخر: المزيد من الروبوتات.
في خطوة قد تثير جدلًا واسعًا، تخطط Meta للسماح للأفراد بإنشاء حسابات ذكاء اصطناعي مستقلة تمامًا خلال العامين المقبلين.
وفقًا لتقارير صحيفة Financial Times، ترى Meta أن الصور الرمزية المخصصة التي تعمل بالذكاء الاصطناعي قد تجذب الجمهور الأصغر سنًا، خاصة الجيل Z، أكد كونور هايز، نائب رئيس Meta للمنتجات المتعلقة بالذكاء الاصطناعي التوليدي، قائلاً: "سيكون لهذه الحسابات سير ذاتية وصور شخصية، وستتمكن من إنشاء ومشاركة محتوى مدعوم بالذكاء الاصطناعي".
بدأت هذه المبادرة مع إطلاق Meta لمنصة AI Studio في يوليو الماضي، حيث تمكّن المؤثرون من إنشاء شخصيات ومساعدين ذكاء اصطناعي لتقديم الدعم والتفاعل مع المتابعين، حتى الآن، تم إنشاء مئات الآلاف من الشخصيات، ولكنها تظل محصورة في الاستخدام الخاص.
تجربة الماضي والمخاوف المستقبليةتسعى Meta لاستكشاف مستقبل التفاعل الاجتماعي، لكنها تواجه تحديات متكررة، في السنوات الأخيرة، استثمرت الشركة مليارات الدولارات في مشاريع مثل الميتافيرس، الذي لم يحظ بقبول واسع، كما أطلقت روبوتات دردشة بأسماء وصور مشاهير، والتي فشلت في تحقيق النجاح وتم التخلي عنها بعد أقل من عام.
التأثير المحتمل على المنصات الاجتماعيةقد تشهد منصات Facebook وInstagram تحولًا جذريًا مع تزايد الحسابات التي يديرها الذكاء الاصطناعي، بينما يمكن لهذه الحسابات أن تظل نشطة على مدار الساعة، فإن تأثيرها على المستخدمين الحقيقيين قد يكون سلبيًا، أحد المخاوف الرئيسة هو أن يؤدي انتشار حسابات الذكاء الاصطناعي إلى تقليل ظهور منشورات الأصدقاء والعائلة، مما يضعف الطابع "الاجتماعي" للمنصات.
على الرغم من أن Meta قد تحدد بوضوح الحسابات المدعومة بالذكاء الاصطناعي، فإن الإقبال على التفاعل مع هذه الحسابات يظل مشكوكًا فيه، ومع زيادة شكاوى المستخدمين من الإعلانات والمحتوى المكرر، قد يصبح المحتوى المدعوم بالذكاء الاصطناعي عبئًا إضافيًا.
قد تكون خطوة Meta نحو تعزيز وجود الذكاء الاصطناعي على منصاتها مجازفة كبيرة. إذا لم تُنفذ بحذر، فقد تُحدث تأثيرات عميقة على طبيعة التفاعل الاجتماعي، يبقى السؤال: هل ستنجح Meta في تحقيق التوازن بين التكنولوجيا والإنسانية، أم أنها تخاطر بفقدان جوهر "التواصل الاجتماعي" الذي بنيت عليه منصاتها؟
المصدر: بوابة الوفد
كلمات دلالية: بالذکاء الاصطناعی الذکاء الاصطناعی
إقرأ أيضاً:
تعليم نماذج الذكاء الاصطناعي ما لا تعرفه
أسس فريق من باحثي معهد ماساتشوستس للتكنولوجيا (MIT)، Themis AI لقياس عدم اليقين في نماذج الذكاء الاصطناعي ومعالجة فجوات المعرفة.
تُقدم أنظمة الذكاء الاصطناعي، مثل ChatGPT، إجاباتٍ تبدو معقولة لأي سؤال قد يطرح عليها. لكنها لا تكشف دائمًا عن ثغراتٍ في معارفها أو جوانبَ عدم اليقين فيها.
وقد تُسفر هذه المشكلة عن عواقب وخيمة مع تزايد استخدام أنظمة الذكاء الاصطناعي في مجالاتٍ مثل تطوير الأدوية، وقيادة السيارات ذاتية القيادة.
والآن، تُساعد Themis AI في تحديد عدم اليقين في النماذج وتصحيح النتائج قبل أن تُسبب مشاكل أكبر. ويمكن لمنصة Capsa التابعة للشركة العمل مع أي نموذج تعلُّم آلي للكشف عن النتائج غير الموثوقة وتصحيحها في ثوانٍ. وتعمل المنصة عن طريق تعديل نماذج الذكاء الاصطناعي لتمكينها من اكتشاف الأنماط في معالجة البيانات التي تُشير إلى الغموض أو عدم الاكتمال أو التحيز.
تقول دانييلا روس، المؤسس المشارك لشركة Themis AI والأستاذة في معهد ماساتشوستس للتكنولوجيا، والتي تشغل أيضًا منصب مديرة مختبر علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا "الفكرة هي أخذ نموذج، ودمجه في Capsa، وتحديد أوجه عدم اليقين وأنماط فشل النموذج، ثم تحسينه"، مضيفة "نحن متحمسون لتقديم حل يُحسّن النماذج ويضمن عملها بشكل صحيح".
أسست روس شركة Themis AI عام 2021 بالتعاون مع زميلي بحث سابقين في مختبرها. ومنذ ذلك الحين، ساعدوا شركات الاتصالات في تخطيط الشبكات وأتمتتها، وساعدوا شركات النفط والغاز على استخدام الذكاء الاصطناعي لفهم الصور الزلزالية، ونشروا أبحاثًا حول تطوير روبوتات دردشة أكثر موثوقية.
يقول ألكسندر أميني، أحد الرؤساء المشاركين "نريد تمكين الذكاء الاصطناعي في التطبيقات الأكثر أهمية في كل قطاع". ويضيف "رأينا جميعًا أمثلة على هلوسة الذكاء الاصطناعي أو ارتكابه للأخطاء. ومع اتساع نطاق استخدام الذكاء الاصطناعي، قد تؤدي هذه الأخطاء إلى عواقب وخيمة. يُمكّن ثيميس أي ذكاء اصطناعي من التنبؤ بأخطائه قبل وقوعها".
مساعدة النماذج على معرفة ما تجهله
يبحث مختبر روس في عدم اليقين في النماذج منذ سنوات. في عام 2018، حصلت على تمويل لدراسة موثوقية حل قيادة ذاتية قائم على التعلم الآلي. تقول روس "هذا سياق بالغ الأهمية للسلامة، حيث يُعد فهم موثوقية النموذج أمرًا بالغ الأهمية".
في عمل منفصل، طوّر روس وأميني وزملاؤهما خوارزمية يمكنها اكتشاف التحيز العنصري والجنسي في أنظمة التعرف على الوجه، وإعادة وزن بيانات تدريب النموذج تلقائيًا، مما يُظهر أنها أزالت التحيز. عملت الخوارزمية من خلال تحديد الأجزاء غير المُمثلة من بيانات التدريب الأساسية، وتوليد عينات بيانات جديدة ومتشابهة لإعادة توازنها.
في عام 2021، أظهر المؤسسون المشاركون إمكانية استخدام نهج مماثل لمساعدة شركات الأدوية على استخدام نماذج الذكاء الاصطناعي للتنبؤ بخصائص الأدوية المرشحة. وأسسوا شركة Themis AI في وقت لاحق من ذلك العام.
تؤكد روس "قد يوفر توجيه اكتشاف الأدوية الكثير من المال. كانت هذه هي حالة الاستخدام التي جعلتنا ندرك مدى قوة هذه الأداة".
تعمل Themis AI اليوم مع شركات في مجموعة متنوعة من الصناعات، والعديد من هذه الشركات تبني نماذج لغوية ضخمة. باستخدام Capsa، تتمكن هذه النماذج من تحديد مستوى عدم اليقين الخاص بها لكل ناتج.
يعتقد فريق "ثيميس" للذكاء الاصطناعي أن الشركة في وضع جيد لتحسين أحدث تقنيات الذكاء الاصطناعي المتطورة باستمرار.