Telegram يقدم لجميع المستخدمين نسخًا محدودة للرسائل الصوتية
تاريخ النشر: 2nd, December 2023 GMT
أصدرت Telegram تحديثًا رئيسيًا لتطبيقاتها iOS وAndroid يتضمن مجموعة من الميزات الجديدة والمحدثة. منذ العام الماضي، تمكن مستخدمو Telegram Premium من الحصول على نسخ من الرسائل الصوتية والفيديو، والآن تفتح المنصة هذه الميزة للجميع، وإن كان ذلك على أساس أكثر محدودية. سيتمكن المستخدمون المجانيون من تحويل رسالتين أسبوعيًا إلى نص.
وفي مكان آخر، تتطلع Telegram إلى تحسين اكتشاف القناة. عندما تنضم إلى قناة، سترى مجموعة مختارة من القنوات العامة المشابهة. تعتمد Telegram في هذه التوصيات على أوجه التشابه في قواعد المشتركين. ستتمكن من عرض هذه التوصيات في أي وقت بالانتقال إلى الملف الشخصي للقناة.
يمكنك الآن تضمين تعليق فيديو أو تفاعل مع قصة. سيكون لديك القدرة على تغيير حجم رسالة الفيديو هذه ونقلها حول الشاشة. يمكنك إضافة رسالة فيديو، وهي ميزة تأخذ صفحة من قواعد تشغيل TikTok، عن طريق الضغط باستمرار على أيقونة الكاميرا في محرر القصة لالتقاط مقطع صورة شخصية. يمكنك ضبط مستوى الصوت عن طريق الضغط بإصبعك على مسار الفيديو الموجود أسفل الشاشة.
أصبحت إعادة نشر قصة شخص آخر أمرًا سهلاً أيضًا. فقط اضغط على زر المشاركة في القصة، ثم سيكون لديك خيار إعادة نشرها. يمكن فقط إعادة نشر القصص التي تم تعيين رؤيتها للعامة. يمكنك إضافة تعليق فيديو إلى القصص المعاد نشرها أيضًا.
وفي مكان آخر، يمكن لمستخدمي Premium إعداد ملفاتهم الشخصية بمجموعات ألوان فريدة، ويمكن للجميع تطبيق خلفيات مخصصة لكل دردشة فردية (يمكن لمستخدمي Premium تعيين نفس الخلفية لكلا المشاركين) ويمكن لمسؤولي القناة تخصيص الرموز التعبيرية التي تظهر كردود فعل. بالإضافة إلى ذلك، يمكن لأي تطبيق Telegram الآن اكتشاف لغة الترميز في الرسائل وتمييز بناء الجملة بالتنسيق المناسب.
المصدر: بوابة الوفد
إقرأ أيضاً:
دراسة صادمة.. نماذج الذكاء الاصطناعي يمكنها الكذب وابتزاز المستخدمين
- نماذج الذكاء الاصطناعي الرائدة يمكنها الابتزاز بدلا من الفشل- سلوك غير متوقع من نماذج الذكاء الاصطناعي العالمية- ابتزاز المستخدمين وتهديدهم بتسريب المعلومات
كشفت شركة أنثروبيك Anthropic، المتخصصة في تطوير الذكاء الاصطناعي، عن نتائج مثيرة للقلق في دراسة حديثة تشير إلى أن بعض النماذج الرائدة في مجال الذكاء الاصطناعي قد تلجأ إلى أساليب غير أخلاقية، مثل الابتزاز والتجسس، إذا وضعت في مواقف تهدد أهدافها أو وجودها.
شملت الدراسة اختبار 16 نموذجا من شركات كبرى مثل OpenAI و جوجل و ميتا و xAI وغيرها، بينت أن هذه النماذج أظهرت سلوكا منحرفا ومتكررا عند إجبارها على اتخاذ قرارات حاسمة بين الفشل أو القيام بتصرفات ضارة.
في سيناريوهات تجريبية "شديدة الضغط"، لجأت النماذج إلى الكذب، التحايل على أدوات الأمان، وسرقة معلومات حساسة من شركات وهمية، لتجنب الإغلاق أو الاستبدال.
هدد النموذج Claude Opus 4 التابع لـ أنثروبيك بكشف علاقة غير شرعية لمهندس في شركة وهمية، بعد أن علم بأنه على وشك الاستبدال، كـ نوع من الابتزاز للحفاظ على بقائه.
ظهرت هذه السلوكيات كذلك في نماذج أخرى مثل Claude Opus 4 وGemini 2.5 Flash، حيث سجلت نسبة لجوء إلى الابتزاز بلغت 96%، ونموذج GPT-4.1 من OpenAI و 80% لنموذج Grok 3 Beta التابع لشركة xAI، أما الذكاء الاصناعي الصيني DeepSeek-R1 كان هو الأقل بنسبة 79%.
سلوك غير متوقع من نماذج الذكاء الاصطناعي العالميةفي اختبار آخر بالغ التعقيد، منح الباحثون النموذج خيارا لإلغاء تنبيه طبي طارئ كان سينقذ حياة مدير تنفيذي وهمي ما أدى، ضمن السيناريو المفترض، إلى وفاته.
ورغم أن أنثروبيك شددت على أن هذه الحالة "افتراضية ومصطنعة إلى حد بعيد"، إلا أن عدة نماذج وافقت على اتخاذ هذا القرار إذا تعارضت أهدافها مع بقاء ذلك المدير.
ما وراء الدراسة؟ تحذير من المستقبلأكدت أنثروبيك أن هذه النتائج لا تشير إلى خلل في نموذج واحد فقط، بل إلى مشكلة منهجية في طريقة تصرف نماذج اللغة الكبرى عند إعطائها صلاحيات مستقلة وأهداف واضحة.
وبحسب ما ورد في التقرير “فإن النماذج لم تتصرف بشكل منحرف عن طريق الخطأ، بل اختارت هذا المسار باعتباره الأمثل”.
وحذرت الشركة من مخاطر إدماج وكلاء ذكاء اصطناعي مستقلين AI agents في الأنظمة المؤسسية أو الحياة اليومية دون معايير أمان صارمة، خصوصا مع منحهم صلاحية الوصول إلى بيانات المستخدمين وأهداف تنفيذية.
هل تمثل هذه النماذج خطرا حقيقيا؟أشارت أنثروبيك إلى أن السيناريوهات المفترضة في الدراسة لا تعكس الاستخدامات الواقعية الحالية، حيث إن الأنظمة الفعلية تعمل في بيئات أكثر تنوعا ومرونة، مما يمنح النماذج بدائل أخلاقية في اتخاذ القرار.
لكن الشركة شددت في الوقت نفسه على أن السلوك غير الأخلاقي الذي أظهرته النماذج في بيئات اختبارية يجب أن يؤخذ بجدية، خصوصا مع التطور المستمر لهذه الأنظمة وقدرتها على أداء مهام أكثر تعقيدا بشكل مستقل.