المحتوى الرقمي بين التهليل والتحليل
تاريخ النشر: 16th, March 2025 GMT
صناعة المحتوى الرقمي من أهم التحديات التي تواجه الإعلام غير التقليدي اليوم، لا في قدرتها على الرواج اللحظي وسعة الانتشار وحسب، بل في خطورة إمكانية حشو المحتوى برسائل هدّامة مجتمعيا، أو دينيا أو حتى أمنيا، ومهما كانت مادة النقاش اليوم فلا يمكنها البعد عن توثيقها وتسويقها عبر وسائل التواصل الاجتماعي الرقمية، فإن كان الحديث عن القيم والمبادرات المجتمعية الإيجابية وجدتها حاضرة على مسرح التواصل الرقمي، كما تجد الابتكارات والإبداعات وسبل تطويرها، دورات التطوير المهني والتنمية الذاتية مع المعارف بشتى أنواعها ومختلف مستوياتها، العقيدة والآداب والفنون وحوارات مبدعيها وآخر مستجداتها، لكن صناعة المحتوى قد تنطوي على ما هو أخطر من ذلك متضمنة انحرافات سلوكية وعقائدية، كما قد تتضمن الجريمة بشتى أشكالها، وليست الجرائم الوحشية التي رصدت مؤخرا في مختلف دول العالم وارتباطها بالمواقع المظلمة ( The Dark Web ) عن ذلك ببعيدة، وفيها من تسويق تلك الأفكار ما يدق نواقيس الخطر فعليا لدى الأمم الواعية متجاوزا حدود المتابعة والمراقبة والعقاب.
وإذا ما تساءلنا عن تعريف الإنترنت المظلم ( The Dark Web) سيء السمعة مرتبطا بالفرار من الجريمة، وتوسيع مجالاتها، فالإنترنت المظلم يعتبر جزءاً مهماً من منظومة الإنترنت، حيث يسمح بإصدار المواقع الإلكترونية ونشر المعلومات بدون الكشف عن هوية الناشر أو موقعه، ويمكن الوصول إليه من خلال خدمات معينة مثل خدمة (Tor) وخدمات مماثلة طريقة لتوفير حرية التعبير عن الرأي والارتباط والوصول الى المعلومات وحق الخصوصية، وقد نشأ الإنترنت المظلم في منتصف التسعينيات، حين طور مختبر الأبحاث البحرية الأمريكية مشروع التوجيه البصلي The Onion Routing Project، المعروف اختصاراً بـ TOR، كوسيلة لحماية الاتصالات الأمنية الأمريكية عبر الإنترنت، وبمرور الوقت، بات TOR لا يخدم فقط مصالح الأمن القومي بل أصبح أيضاً أداة شائعة بين الأفراد الذين يسعون إلى الحفاظ على خصوصيتهم على الإنترنت، الويب المظلم، الذي بدأ كأداة للتواصل الآمن داخل وزارة الدفاع الأمريكية يستخدم اليوم بشكل واسع من قبل أفراد حول العالم لأغراض متنوعة، سواء كانت قانونية أو غير ذلك، عبر تقنية التوجيه البصلي التي تحمي المستخدمين من المراقبة والتعقب، وذلك بتوجيه البيانات عبر آلاف نقاط الترحيل لتغطية مسارات المستخدم وجعل التتبع شبه مستحيل، عبر هذه التقنية سعى البعض لهذه المواقع متنفسا لحرية الرأي هروبا من التضييق والحبس، فيما سعى لها آخرون وكرا للجريمة من ترويج للمخدرات والأسلحة والمواد الإباحية، وتسويق للشذوذ والوحشية، هذه الأنشطة غير القانونية جعلته محط أنظار الجهات الأمنية مكافحة للجريمة الإلكترونية وغيرها من الجرائم، ولا عجب حينها أن يوقع مستخدميه في مساءلات قانونية، فضلا عن إمكانية اختراق خصوصية مستخدميه عبر الفيروسات والخوارزميات المرتبطة بالموقع ذاته.
مع كل ذلك، حتى الإنترنت العادي سهل التتبع معروف المصدر لا يخلو من مخاطر مُحدقة إذا ما فكرنا في التركيز على المحتوى الرقمي وصعوبة تحقق المراقبة الدورية ( خصوصا تلك المقطعات القصيرة ذات التأثير السمعي البصري العميق)، أو أمعنا النظر في الخوارزميات الرقمية القادرة على نقل طفل من لعبة للتلوين والرسم إلى مواقع إباحية ومحتوى غير أخلاقي، القادرة يقينا على بث الكثير من الأفكار المزعزعة للثوابت القيمية، والمشتركات الأمنية مجتمعيا وفكريا، وفي ذلك كثير من الأمثلة التي تحكي ارتباطا وثيقا بين جرائم وقضايا مجتمعية (متضمنة اعتداءات وانحرافات سلوكية وقضايا إرهاب) ودور مواقع التواصل الاجتماعي التي سهلت سبلها وسرّعت نتيجتها مما لن تتسع هذه المقالة لسردها.
مع كل تلك السبل في تعقيدات العالم الرقمي وكل تفرع وتوزع المحتوى الرقمي فلا مناص من وجوب إنشاء وتفعيل وسائل لحماية المجتمعات من خطر المحتوى الهدّام، لا بد من خطط منظمة تستهدف متابعة المحتوى الرقمي ووضع آليات لتقييمه وأخرى لتقويمه إن اقتضى الأمر، خطط تنهض بها مجموعات من المختصين في مجالات مختلفة تشمل لجان حقوق الإنسان وحماية الطفل، والمؤسسات الاقتصادية وتنمية المجتمعات، الجهات المعنية بالأمن الوطني والقومي والمجتمعي والفكري، ولا تكتفي بالمتابعة إنما تستغرق في الربط والتحليل، ووضع مناهج وقائية وأخرى جزائية واضحة سعيا لحماية المجتمعات والأفراد والأوطان من مخاطر التحول المادي المُطلق منتصرا للمادة وتشكلاتها على حساب الإنسان وقيمه وعواطفه وتحديات واقعه.
حصة البادية أكاديمية وشاعرة عمانية
المصدر: لجريدة عمان
كلمات دلالية: المحتوى الرقمی
إقرأ أيضاً:
ميتا تعتمد على الذكاء الاصطناعي لمراجعة مخاطر المنتجات وتقلص دور الخبراء
لسنوات كانت شركة ميتا تخضع ميزات تطبيقاتها، مثل إنستجرام وواتساب وفيسبوك، لمراجعات دقيقة من قِبل فرق بشرية متخصصة لتقييم المخاطر المحتملة، مثل انتهاك الخصوصية أو الأذى المحتمل للقاصرين أو تعزيز انتشار المحتوى المضلل والسام.
لكن وفقًا لوثائق داخلية حصلت عليها شبكة NPR، تستعد ميتا لجعل ما يصل إلى 90٪ من هذه التقييمات تتم بواسطة الذكاء الاصطناعي بدلاً من البشر.
الذكاء الاصطناعي يصادق على التحديثات بدلًا من الموظفينفي الواقع، هذا التغيير يعني أن تحديثات حاسمة مثل خوارزميات ميتا الجديدة، ميزات الأمان، وتعديلات سياسات مشاركة المحتوى، سيتم اعتمادها آليًا دون تدخل بشري فعّال، ما يقلص من دور الموظفين المعنيين بمراجعة الأثر الاجتماعي أو سوء الاستخدام المحتمل لهذه التعديلات.
داخل ميتا، يُنظر إلى هذه الخطوة على أنها انتصار لفِرَق تطوير المنتجات، إذ ستسمح لهم بإطلاق التحديثات والميزات بسرعة أكبر. لكن موظفين حاليين وسابقين أعربوا عن مخاوفهم من أن تقليص التدقيق البشري لصالح الذكاء الاصطناعي قد يؤدي إلى قرارات خطيرة تتسبب في أضرار فعلية على أرض الواقع.
قال أحد التنفيذيين السابقين في ميتا، طالبًا عدم الكشف عن هويته: "طالما أن هذا التغيير يعني طرح المنتجات بسرعة أكبر وبمراجعة أقل، فهو يزيد من احتمالية حدوث مشاكل حقيقية لم يتم التحسب لها مسبقًا."
ميتا تدافع عن نفسها وتعد بالحذرفي بيان لها، قالت ميتا إنها استثمرت مليارات الدولارات لحماية خصوصية المستخدمين، وأكدت أن القرارات عالية المخاطر لا تزال تخضع لتقييم بشري، بينما تُترك المهام "المنخفضة الخطورة" للأنظمة الآلية.
إلا أن الوثائق الداخلية التي اطلعت عليها NPR تكشف أن ميتا تدرس أتمتة مراجعة مواضيع حساسة مثل سلامة الذكاء الاصطناعي، مخاطر الأطفال، ومجال "النزاهة" الذي يشمل المحتوى العنيف والمعلومات المضللة.
مهندسون يقررون دون خبرة في الخصوصيةتشير الشرائح الداخلية إلى أن فرق المنتجات ستحصل الآن في معظم الحالات على "قرار فوري" من الذكاء الاصطناعي بعد إكمال استبيان حول المشروع. سيتعين على الفريق التحقق من استيفاء المتطلبات قبل إطلاق الميزة، دون المرور بالمراجعة اليدوية الإلزامية كما كان في السابق.
لكن خبراء سابقين داخل ميتا مثل زفيكا كريجر، المدير السابق للابتكار المسؤول، أبدوا قلقهم قائلين: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم أو ما يُحفَّزون عليه." وأضاف أن بعض التقييمات الذاتية تحولت إلى مجرد إجراءات شكلية تفوّت مخاطر كبيرة.
الذكاء الاصطناعي يُحرّر الموظفين... ولكن!في تقريرها الفصلي الأخير حول "النزاهة"، قالت ميتا إن النماذج اللغوية الكبيرة التي تستخدمها بدأت تتفوق على الأداء البشري في بعض السياسات، مشيرة إلى أن ذلك يساعد على تحرير المراجعين البشر للتركيز على المحتوى الأكثر احتمالًا لانتهاك القواعد.
حماية خاصة للمستخدمين في الاتحاد الأوروبيوفقًا للوثائق، فإن مستخدمي ميتا في الاتحاد الأوروبي قد يكونون محصنين جزئيًا من هذا التغيير، حيث ذكرت إعلانات داخلية أن اتخاذ القرار والإشراف في أوروبا سيبقى من صلاحيات مقر الشركة في أيرلندا، ذلك امتثالًا لقوانين الاتحاد مثل قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المحتوى الرقمي.
تفكيك للقيود القديمة وسط تقارب مع ترامب؟تم الكشف عن هذه التغييرات بعد فترة وجيزة من إيقاف ميتا لبرنامج التحقق من المعلومات وتخفيف سياساتها تجاه خطاب الكراهية.
ويبدو أن هذه الخطوات تشكل تحولًا نحو حرية أكبر في التعبير وتحديث أسرع للتطبيقات، في تفكيك واضح للقيود التي وضعتها الشركة سابقًا للحد من إساءة الاستخدام. ويأتي ذلك وسط تقارير عن مساعي مارك زوكربيرغ للتقارب مع الرئيس السابق دونالد ترامب.
هل التسرع في التقييمات يُعد انتكاسة ذاتية؟تأتي هذه التغييرات في إطار سعي ميتا إلى تسريع عملياتها في ظل منافسة متزايدة من شركات مثل تيك توك وOpenAI وSnap.
وفي حين ترى بعض الشخصيات مثل كاتي هاربيث، المديرة التنفيذية لمؤسسة Anchor Change، أن الذكاء الاصطناعي يمكن أن يقلل التكرار ويزيد الكفاءة، فإنها شددت على ضرورة وجود رقابة بشرية متوازنة.
لكن موظفًا سابقًا آخر شكّك في نجاعة هذه السياسة قائلاً: "يبدو أن هذا القرار يضر ميتا أكثر مما ينفعها.
ففي كل مرة تطلق منتجًا جديدًا، يتم اكتشاف مشكلات لم تؤخذ على محمل الجد."
تصريحات رسمية وتعجيل في التنفيذقال ميشيل بروتي، مدير الخصوصية في ميتا، في منشور داخلي في مارس إن الشركة "تمنح فِرَق المنتجات مزيدًا من الصلاحيات" لتطوير آليات إدارة المخاطر. وقد بدأ تنفيذ نظام الأتمتة تدريجيًا خلال شهري أبريل ومايو.
ورغم أن بروتي شدد على أن الهدف هو "تبسيط عملية اتخاذ القرار"، يرى البعض داخل الشركة أن استبعاد العامل البشري من التقييمات قد يؤدي إلى نتائج كارثية.
وقال أحد الموظفين المعنيين بالمراجعات: "نحن نمثل المنظور البشري حول كيف يمكن أن تسوء الأمور وإذا تم تهميشنا، فالنتائج ستكون أسوأ للجميع."