"زقزقة فيسبوكية" تثير غضب المستخدمين
تاريخ النشر: 14th, February 2024 GMT
أبلغ عدد من مستخدمي تطبيق "فيسبوك" عن سماعهم لصوت مزعج يشبه "الزقزقة" أثناء تصفح المنصة، ما دفع بالشركة الأم Meta إلى توضيح سبب هذا الخلل.
وفي منشور على موقع X، كتب آندي ستون، مسؤول الاتصالات في Meta: "هل تسمع صوت زقزقة أثناء التمرير عبر موجز أخبار "فيسبوك" على جهاز "آيفون؟"، لست أنت السبب بل نحن! هذا خطأ فني مؤسف ونحن بصدد إصلاحه".
Hearing a chirping noise while scrolling through your Facebook Feed on your iPhone? It’s not you, it’s us! And it’s an unfortunate technical error that we're in the process of fixing.
— Andy Stone (@andymstone) February 13, 2024وحتى الآن، لم تذكر Meta متى ستتمكن من حل المشكلة، مع عدم تقديمها أي معلومات إضافية حول الخلل.
إقرأ المزيدوكتب أحد المعلقين على X: "لا تقلقوا، هذه مجرد ردود فعل من الميكروفون الذي يستمع إليكم".
ولحسن الحظ، يمكن إصلاح هذا الخلل الصوتي من خلال بعض التعديلات على إعدادات "فيسبوك"، أهمها إلغاء تنشيط الصوت داخل التطبيق.
أولا، افتح القائمة وتوجه إلى "الإعدادات والخصوصية".
ثم انقر على "الإعدادات" وانتقل إلى علامة التبويب "الوسائط" ضمن التفضيلات، لتنقلك إلى قائمة "الأصوات" حيث ستجد مفتاح تغيير "الصوت داخل التطبيق" لإيقافه.
يذكر أنه في مايو من العام الماضي، أدى خلل غريب في "فيسبوك" إلى إرسال طلبات صداقة إلى أي شخص كان المستخدم يتصفح ملفه الشخصي.
وفي أغسطس، تسبب خلل آخر في إغراق ملفات الأخبار للمستخدمين بمشاركات من غرباء يشاركون محتوى صفحات المشاهير.
المصدر: ديلي ميل
المصدر: RT Arabic
كلمات دلالية: بحوث تطبيقات فيسبوك facebook
إقرأ أيضاً:
OpenAI تؤسس مجلسًا استشاريًا للصحة النفسية لحماية المستخدمين
أعلنت شركة OpenAI عن تشكيل مجلس استشاري جديد مختص بالصحة النفسية والعاطفية لمستخدميها، في وقت تتزايد فيه المخاوف من الآثار النفسية والاجتماعية لاستخدام روبوتات الدردشة الذكية مثل ChatGPT.
المجلس الجديد، الذي يضم ثمانية باحثين وخبراء في مجالات الصحة النفسية والذكاء الاصطناعي، سيعمل على تقديم المشورة للشركة حول كيفية تطوير تقنيات أكثر أمانًا تراعي الجوانب الإنسانية للمستخدمين، خصوصًا المراهقين وصغار السن.
ويُذكر أن بعض أعضاء المجلس سبق أن تعاونوا مع OpenAI خلال مرحلة تطوير أدوات الرقابة الأبوية، ما يعكس رغبة الشركة في الاستفادة من خبراتهم السابقة لضمان بيئة استخدام أكثر توازنًا ومسؤولية.
تأتي هذه الخطوة بعد سلسلة من القضايا المثيرة للجدل التي واجهتها شركات التكنولوجيا، وعلى رأسها OpenAI، عقب اتهامات بارتباط منتجاتها بحالات انتحار بين مراهقين تفاعلوا مع روبوتات الدردشة. فقد سلطت تلك الحوادث الضوء على الجانب المظلم للذكاء الاصطناعي عندما يُستخدم دون رقابة أو وعي كافٍ، الأمر الذي دفع المؤسسات التقنية الكبرى إلى مراجعة سياساتها الخاصة بالسلامة الرقمية.
وترى OpenAI أن المجلس الجديد سيمثل منصة لتبادل الرؤى حول كيفية تصميم أنظمة ذكاء اصطناعي تراعي الصحة النفسية للمستخدمين، وتحد من المخاطر الناتجة عن التفاعل الطويل أو المفرط مع الروبوتات الذكية. إلا أن الشركة أوضحت بوضوح أن المجلس سيقتصر دوره على تقديم المشورة فقط، دون امتلاك سلطة مباشرة لاتخاذ قرارات أو فرض سياسات على إدارة الشركة.
وفي بيان رسمي، أكدت OpenAI أن "الشركة تظل مسؤولة عن قراراتها النهائية، لكنها ملتزمة بالتعلم من خبرات هذا المجلس، ومن شبكة الأطباء وخبراء السياسات وصناع القرار حول العالم، بهدف بناء أنظمة ذكاء اصطناعي تدعم رفاهية الإنسان بدلاً من تهديدها".
لكن رغم الطابع الإيجابي للمبادرة، يشكك بعض المراقبين في مدى جدية OpenAI في تنفيذ توصيات المجلس. إذ يشير خبراء في أخلاقيات التكنولوجيا إلى أن عدداً من شركات التقنية الكبرى سبق وأن أنشأت مجالس استشارية مماثلة، لكنها لم تمنحها تأثيراً حقيقياً على قراراتها التشغيلية. ويستشهد هؤلاء بتجارب شركات مثل Meta التي أنشأت لجانًا للرقابة والاستشارات ثم تجاهلت توصياتها لاحقًا، ما أثار انتقادات واسعة بشأن جدوى مثل هذه الكيانات الاستشارية.
ويرى محللون أن اختبار مصداقية OpenAI الحقيقي سيظهر عندما تتعارض توصيات المجلس مع مصالحها التجارية أو خططها التطويرية. فإذا التزمت الشركة بالأخذ بآراء الخبراء، فسيكون ذلك مؤشرًا على نيتها الجادة في الحد من المخاطر النفسية والسلوكية التي قد يسببها التفاعل المستمر مع الذكاء الاصطناعي. أما إذا تجاهلت تلك التوصيات، فسيُنظر إلى المجلس باعتباره محاولة شكلية لتحسين الصورة العامة للشركة بعد الانتقادات التي واجهتها مؤخرًا.
ومن المقرر أن يبدأ المجلس أعماله رسميًا خلال الأسابيع المقبلة، حيث سيقدم تقاريره الأولية إلى إدارة OpenAI حول كيفية دمج مبادئ السلامة النفسية ضمن تصميمات النماذج اللغوية المستقبلية. كما سيعمل على تطوير إرشادات عملية للمستخدمين تساعدهم على التفاعل الآمن مع روبوتات الدردشة دون التأثير على صحتهم العقلية.
الجدير بالذكر أن هذه المبادرة تأتي ضمن سلسلة من التحركات التي اتخذتها OpenAI مؤخرًا لتعزيز ثقة الجمهور، من بينها تطوير أدوات للتحقق من العمر، وإضافة إشعارات تنبيهية لتشجيع المستخدمين على أخذ فترات راحة أثناء التفاعل مع ChatGPT، بعد حوادث متكررة أثارت القلق بشأن الإدمان الرقمي والعزلة الاجتماعية.
وبينما يرحب الخبراء بهذه الخطوة كإشارة إيجابية من OpenAI نحو تحمل مسؤوليتها الأخلاقية، تبقى الأنظار موجهة إلى مدى التزام الشركة بتطبيق التوصيات على أرض الواقع. فالمجلس الاستشاري الجديد قد يكون خطوة محورية نحو إعادة تعريف العلاقة بين الذكاء الاصطناعي وصحة الإنسان، لكنه في الوقت نفسه يمثل اختبارًا حقيقيًا لمدى استعداد شركات التقنية الكبرى لتجاوز الشعارات والتعامل بجدية مع الجانب الإنساني لتقنياتها.