الذكاء الاصطناعي يفشل في مجال كتابة القصص الإخبارية
تاريخ النشر: 3rd, September 2023 GMT
الذكاء الاصطناعي في تطور مستمر في إبهار العالم كل يوم بشيء جديد، ومنها تقنيات التحدث والمساعدة مثل شات جي بي تي ودردشة بينغ وغيرها، ولكن هذه التقنيات التي تهدد وظائف الكثير من البشر لا تزال في مرحلة التطوير، أمامها طريق طويل حتى تحل محل البشر بشكل فعلي.
في هذا الإطار تقدم بوابة «الأسبوع» الإلكترونية، كل ما يخص فشل تجربة الذكاء الاصطناعي في مجال كتابة القصص الإخبارية
فشل الصحفي الإلكترونيمنذ فترة أعلنت جوجل عن إطلاقها أداة ذكاء اصطناعي لمساعدة الصحفيين في كتابة القصص الإخبارية أو كتابة الأخبار والقصص الإخبارية بدلا من الصحفيين أنفسهم، ولكن سرعان ما فشلت هذه الأداة بسبب الأخطاء التي تسببت بها مما أثار سخرية الشعب الأمريكي من الصحفيين الذين يستعملون تلك التقنية ومن التقنية نفسها.
ويوضح خبير معلومات، أن شركات الإعلام يجب أن تستخدم هذه الأدوات في الحدود الآمنة وأن مسؤولية حدوث مثل تلك الأخطاء يعود إلى البشر أيضا، فمنذ يومين تعرضت شركة غانيت الأمريكية التي تعمل في مجال الإعلام والتي لديها مئات الصحفيين للانتقاد من قبل الشعب بسبب وجود الكثير من الأخطاء الفادحة في بعض الأخبار الرياضية.
ووفقا لموقع بيزنيس إنسايدر فإن الشركة أوقفت العمل باستخدام الذكاء الصناعي مؤقتا في تحرير الأخبار بعد فشل هذه التجربة، وبعد أن تم نشر مقالات تنقصها الكثير من المعلومات المهمة والتي تدل على أن المحرر لا يملك أي معلومات عن ما يقوم بكتابته.
ووفقا ل أحمد الدهمي الخبير في مجال الذكاء الصناعي فإن استخدام الذكاء الاصطناعي في مجال الصحافة ما يزال يحتاج إلى الكثير من التطوير ولا يجب الاعتماد عليه بشكل كامل حاليا ويلزم مراقبة وإشراف البشر عليه.
وأكمل أحمد الدموهي، أن الذكاء الاصطناعي يعتمد في تعلمه على ما يمده به البشر من معلومات ووفقا لذلك يجب استمرار البشر في الإشراف عليه ومراقبته وتطويره لتقليل نسبة الاخطاء.
جوجل تكشف عن أداة ذكاء اصطناعي قادرة على صياغة بريد إلكتروني مطول
جوجل تطرح «مساعد الذكاء الاصطناعي» لحضور الاجتماعات بدلا عن الموظفين
وداعا للصحفي.. «جوجل» يختبر أداة جديدة لإنتاج القصص الإخبارية
المصدر: الأسبوع
كلمات دلالية: الصحافة الذکاء الاصطناعی القصص الإخباریة الذکاء الصناعی الکثیر من فی مجال
إقرأ أيضاً:
ميتا تستبدل البشر بالذكاء الاصطناعي في تقييم الخصوصية والمخاطر
في خطوة مثيرة للجدل، بدأت شركة "ميتا" بالتحول إلى الأتمتة في عمليات تقييم الخصوصية والمخاطر عبر منصاتها المختلفة، بما في ذلك إنستجرام وواتساب وفيسبوك، وفقا لوثائق داخلية كشفت عنها NPR.
واعتمدت شركة “ميتا” في السنوات الماضية على فرق بشرية متخصصة لمراجعة التحديثات وتقييم تأثيرها المحتمل على خصوصية المستخدمين، وحماية القصر، والحد من انتشار المعلومات المضللة والمحتوى السام، لكن الآن، تشير الوثائق إلى أن ما يصل إلى 90% من هذه المراجعات سيتم توليه بواسطة أنظمة ذكاء اصطناعي.
يعني هذا التغيير أن التحديثات الحاسمة في خوارزميات ميتا، وإدخال ميزات أمان جديدة، وتعديلات مشاركة المحتوى، ستتم الموافقة عليها بشكل شبه تلقائي دون المرور بنفس مستوى التدقيق البشري السابق.
في داخل ميتا، ينظر إلى الأتمتة كـ خطوة تعزز من سرعة تطوير وإطلاق المنتجات، لكن موظفين حاليين وسابقين في الشركة أعربوا عن قلقهم من أن هذه السرعة قد تأتي على حساب السلامة الرقمية والخصوصية.
وقال أحد التنفيذيين السابقين بالشركة، رفض الكشف عن هويته: "تسريع الإطلاق دون مراجعة دقيقة يزيد من احتمالات المخاطر، فالتأثيرات السلبية لتحديثات المنتجات ستكون أقل احتمالا للمنع قبل أن تتسبب في أضرار على أرض الواقع".
وفي بيان رسمي، أكدت ميتا أنها استثمرت مليارات الدولارات في حماية خصوصية المستخدمين، وأشارت إلى أن التغيير الجديد يهدف إلى تسريع اتخاذ القرار مع الإبقاء على "الخبرة البشرية" للتعامل مع القضايا المعقدة فقط. وبينت أن الأتمتة تطبق فقط على "القرارات منخفضة المخاطر".
لكن الوثائق المسربة تظهر أن ميتا تفكر أيضا في أتمتة المراجعات في مجالات أكثر حساسية، تشمل أمان الذكاء الاصطناعي، ومخاطر تتعلق بالشباب، بالإضافة إلى مراجعات تتعلق بـ"النزاهة"، مثل المحتوى العنيف والمعلومات الزائفة.
مخاوف من غياب الخبرةتشير إحدى الشرائح التوضيحية إلى أن الفرق المطورة للمنتجات ستحصل على قرار فوري من النظام الآلي بعد تعبئة استبيان تقني، وسيتعين على الفرق التأكد من أنها استوفت الشروط المحددة قبل الإطلاق.
في السابق، لم يكن من الممكن طرح أي ميزة جديدة قبل أن يوافق عليها مقيمو المخاطر البشريون، أما الآن، فالمهندسون ومديرو المنتجات هم من سيتخذون قراراتهم الخاصة بشأن تقييم المخاطر، باستثناء حالات نادرة يتم فيها طلب مراجعة بشرية بشكل استثنائي.
وحذر زفيكا كريجر، المدير السابق للابتكار المسؤول في ميتا، من هذه الخطوة قائلا: "معظم المهندسين ليسوا خبراء في الخصوصية، وهذا ليس محور تقييمهم الوظيفي. بعض المراجعات الذاتية تتحول في النهاية إلى مجرد إجراء شكلي يتجاهل مخاطر حقيقية".
وأضاف: "رغم أن تبسيط المراجعات قد يكون مفيدا، إلا أن المبالغة في الأتمتة ستؤثر حتما على جودة القرارات".
تشير الوثائق إلى أن المستخدمين في الاتحاد الأوروبي قد يكونون مستثنين من بعض هذه التغييرات، حيث ستبقى عملية اتخاذ القرار وإدارة البيانات تحت إشراف مقر الشركة في أيرلندا، التابع للقوانين الأوروبية، بما في ذلك قانون الخدمات الرقمية الذي يفرض رقابة صارمة على المنصات لحماية المستخدمين من المحتوى الضار.
تأتي التعديلات الجديدة ضمن توجه أوسع داخل ميتا لتسريع التحديثات وتوسيع حرية التعبير، وسط تقارير تشير إلى تقليص برامج التحقق من المعلومات وتخفيف سياسات خطاب الكراهية.
ويرى مراقبون أن هذه التحولات تمثل تفكيكا تدريجيا للضوابط الوقائية التي تبنتها ميتا على مدار السنوات الماضية بهدف تقليل إساءة استخدام منصاتها.