الذكاء الاصطناعي ودوره الفعّال في مواجهة التضليل المعلوماتي
تاريخ النشر: 24th, September 2024 GMT
في كتابه "حروب المعلومات: كيف خسرنا المعركة العالمية ضد المعلومات المضللة وما يمكننا فعله حيال ذلك"، الصادر في أكتوبر من العام 2019، يعرض الصحفي والسياسي الأمريكي ريتشارد ستينجل تجربته الواسعة في محاربة الشائعات والمعلومات المضللة، عندما كان في الخطوط الأمامية لمواجهة التهديدات المعلوماتية التي تشكلها دول وتنظيمات مُعادية للولايات المتحدة.
ريتشارد ستينجل، الصحفي والدبلوماسي الأمريكي، شغل منصب رئيس تحرير مجلة "تايم" قبل انضمامه إلى الحكومة الأمريكية وكيلًا لوزارة الخارجية للدبلوماسية والشؤون العامة في إدارة الرئيس السابق باراك أوباما (2013-2016). خلال تلك الفترة، كان مسؤولًا عن جهود مكافحة حملات التضليل الإعلامي التي تهدد بلاده. ومنحته تجربته كصحفي ومسؤول حكومي فهمًا عميقًا للطرق التي يتم بها استغلال المعلومات كسلاح في الحروب الحديثة.
بعد استعراض دقيق في الأجزاء الأولى من الكتاب لتفاصيل العمل اليومي داخل وزارة الخارجية الأمريكية، ينتقل الكاتب إلى استعراض حملات التضليل المعلوماتي، التي بدأت في العام 2014، وأعقبها تسونامي من الحملات التي استهدفت الولايات المتحدة. ويتتبع الكاتب، من خلال سرده للأحداث، أهم مراحل وتشابكات صناعة التضليل المعلوماتي، التي قد تبدأ باختلاق الأكاذيب والسرديات المُقنعة، وتكرارها مرارًا لخلق حالة دائمة من التشكيك، يمكن أن تؤدي إلى اندلاع المظاهرات والاضطرابات السياسية.
في عصر الإنترنت ووسائل التواصل الاجتماعي، باتت المعلومات المضللة تنتشر بسرعة غير مسبوقة. ويوضح ستينجل أن تقنيات التدقيق اليدوي للأخبار أو الاعتماد على الفحص البشري لم تعد فعالة بما يكفي، لذلك يدعو إلى تبني الذكاء الاصطناعي AI) )كأداة حيوية لكشف ومكافحة الشائعات.
أحد الحلول الرئيسية التي يقترحها ستينجل في كتابه "Information Wars: How We Lost the Global Battle Against Disinformation and What We Can Do About It" هو استخدام الذكاء الاصطناعي لكشف الشائعات في الوقت الفعلي. ويعتمد ذلك على تقنيات معالجة اللغة الطبيعية، التي تساعد في تحليل النصوص الرقمية بسرعة كبيرة واكتشاف الأنماط المشبوهة. هذا النوع من التحليل يمكنه تحديد سياق المحتوى المتداول على الإنترنت، مما يسهل التفريق بين الأخبار الصحيحة والمعلومات المضللة.
الذكاء الاصطناعي يستطيع تحليل كميات هائلة من البيانات في وقت قصير، بما في ذلك النصوص، والصور، والفيديوهات، وبالتالي يمكنه التعرف على الشائعات منذ لحظة انتشارها الأولى. هذا يعزز قدرة الحكومات والشركات التقنية على التدخل بشكل فوري قبل أن تخرج الأمور عن السيطرة.
من الحلول التي يشير إليها ستينجل "تعديل خوارزميات وسائل التواصل الاجتماعي لتعزيز قدرتها على الكشف عن الشائعات والحد من انتشارها"، لأن المنصات تعتمد بشكل كبير على التفاعلات والمشاركات لزيادة انتشار المحتوى، وهذا يسمح للمعلومات المضللة بالوصول إلى جمهور واسع في وقت قياسي.
يقترح ستينجل تغيير خوارزميات العرض بحيث تعطي الأولوية للمحتوى القادم من مصادر موثوقة ومعروفة. على سبيل المثال، يمكن أن تُمنح المؤسسات الإخبارية المعروفة أولوية أكبر في الظهور مقارنة بالمصادر غير المعروفة أو المشبوهة. هذا التعديل في الخوارزميات يمكن أن يحد من انتشار الشائعات بسرعة، ويسهم في تقديم معلومات أكثر دقة وموثوقية للجمهور.
ومن خلال تحليل المحتوى المتداول عبر منصات التواصل، يمكن للذكاء الاصطناعي التنبؤ بالشائعات أو الأزمات قبل حدوثها. ويتحدث ستينجل عن أهمية التنبؤ بالمخاطر، حيث يمكن للذكاء الاصطناعي مراقبة المحتوى المتزايد حول موضوع معين، وتحليل نوعية التفاعلات التي تحدث حول هذا المحتوى. إذا كانت هناك زيادة كبيرة في المشاركات المتعلقة بشائعة معينة، ويمكن للنظام التنبؤ بأن هذه الشائعة قد تتحول إلى أزمة إذا لم يتم التعامل معها بسرعة.
على سبيل المثال، إذا بدأت شائعة كاذبة تنتشر حول قضية سياسية حساسة، يمكن للنظام التنبؤ بمدى تأثيرها استنادًا إلى البيانات المتاحة وتحليل المحتوى المتداول. هذا التنبؤ يمكن أن يمنح الحكومات أو الشركات التقنية فرصة التدخل المبكر لإيقاف انتشار الشائعة قبل أن تؤدي إلى أزمات متلاحقة.
تستخدم العديد من التنظيمات الإرهابية التي تنشر المعلومات المضللة الحسابات المزيفة والبرامج الآلية لنشر محتوى معين بكثافة عبر شبكات التواصل الاجتماعي، مما يعطي انطباعًا زائفًا بأن هذا المحتوى يحظى بشعبية كبيرة. ويقترح ستينجل استخدام الذكاء الاصطناعي لتحليل سلوك المستخدمين واكتشاف الأنماط التي تشير إلى وجود حسابات مزيفة أو روبوتات. على سبيل المثال، يمكن للنظام ملاحظة أن حسابًا معينًا يشارك نفس الرسالة مئات المرات خلال فترة قصيرة، وهو سلوك غير طبيعي بالنسبة للمستخدمين البشريين. باستخدام هذه البيانات، يمكن للمنصات إزالة الحسابات المشبوهة وتقليل انتشار الشائعات.
يشدد ستينجل، أيضًا، على ضرورة التعاون بين الحكومات والشركات التقنية لضمان استثمار أكبر في الذكاء الاصطناعي لمكافحة الشائعات. ومن دون شراكة بين القطاعين العام والخاص، سيكون من الصعب مواجهة هذا التحدي العالمي. يمكن للحكومات تقديم الدعم المالي والتشريعي، بينما تتولى الشركات التقنية تطوير الأنظمة والبرمجيات المتقدمة.
إلى جانب الحلول التقنية، يؤكد ستينجل أهمية تثقيف الجمهور وتعليمهم كيفية التمييز بين المعلومات الصحيحة والشائعات. الذكاء الاصطناعي يمكن أن يكون فعالًا، لكنه لا يستطيع وحده حل المشكلة. لذلك، من الضروري أن يكون هناك وعي مجتمعي كافٍ حول كيفية التحقق من الأخبار والمعلومات، خاصة تلك المنتشرة على وسائل التواصل الاجتماعي.
ويُعتبر كتاب "Information Wars" " من أهم الكتب التي قدمت رؤية عميقة لمستقبل الحروب المعلوماتية في عصر الرقمنة، مع تركيز واضح على الدور الحاسم الذي يمكن أن يلعبه الذكاء الاصطناعي في مكافحة الشائعات والمعلومات المضللة. وفي النهاية، يبقى الحل الأساسي هو مزيج من التكنولوجيا والتعليم ونشر الوعي لمواجهة حروب التضليل المعلوماتي.
المصدر: الأسبوع
كلمات دلالية: التواصل الاجتماعی المعلومات المضللة الذکاء الاصطناعی یمکن أن
إقرأ أيضاً:
أخلاقيات الإبداع: مستقبل العلاقة الجدلية بين الذكاء الاصطناعي والملكية الفكرية
في الأسبوع الأخير من شهر يونيو 2025، أصدر قاضٍ فدرالي أمريكي حكماً يقضي بأن استخدام شركة الذكاء الاصطناعي “أنثروبيك” للكتب دون إذن مؤلفيها لتدريب النموذج اللغوي الكبير “كلود” لا ينتهك قانون حقوق الطبع والنشر الأمريكي، وينطبق عليه مبدأ “الاستخدام العادل”. وهذا المسوغ نفسه الذي استند إليه قاضٍ آخر أصدر حكماً في الأسبوع ذاته لصالح شركة “ميتا” في دعوى قضائية رفعها 13 كاتباً اتهموا فيها الشركة باستخدام كتبهم المحمية بحقوق النشر لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون إذن؛ حيث رأى القاضي أنهم لم يقدموا أدلة كافية على أن الذكاء الاصطناعي سيُسبب “تأثيراً سلبياً في السوق” بإغراقها بأعمال مشابهة لأعمالهم، واعتبر أن استخدام “ميتا” لأعمالهم كان عادلاً.
وتُمثل تلك الأحكام غير المسبوقة تحولاً بارزاً في الصراع الدائر بين شركات الذكاء الاصطناعي والناشرين والمؤلفين حول مشروعية استخدام مصادر البيانات الثقافية ذات الطابع الإبداعي كمدخلات تدريبية للنماذج الذكية دون إذن أو تعويض، وتطبيق وصف “الاستخدام التحويلي” على مخرجات النماذج اللغوية الضخمة باعتبارها تخلق شيئاً جديداً يتجاوز حدود النسخ والنقل الحرفي، بما ينفي تُهم السرقة والانتهاك عنها؛ وهو ما يحمل دلالات مهمة بشأن مستقبل تطبيقات الذكاء الاصطناعي التوليدي واستثماراتها وعلاقاتها التعاقدية وأُطرها القانونية والتنظيمية، كما يطرح تساؤلات جادة حول مستقبل العلاقة بين الملكية الفكرية والتكنولوجيا الإبداعية.
الاستخدام العادل:
يُمثل “الاستخدام العادل” (Fair Use) بنداً استثنائياً في قانون حقوق النشر الأمريكي، يسمح باستخدام الأعمال المحمية دون إذن المالك، بشرط أن يكون الاستخدام عادلاً ومقتصداً، وبالرغم من أنه لا يحدد بدقة ما المقصود بالـ”العادل”؛ فإنه يضع أربعة معايير لتقييم كل حالة على حدة، وهي: طبيعة الاستخدام من حيث كونه تجارياً أو غير ذلك وبحيث يميل الاستخدام للأغراض غير الربحية لأن يكون استخداماً عادلاً، وطبيعة العمل الأصلي بحيث تكون الأعمال التي تحقق منافع عامة مثل الكتب العلمية أقرب لتطبيق ذلك المبدأ، بالإضافة إلى المقدار المستخدم من حيث كونه واسعاً أو محدوداً، وأخيراً الأثر على السوق إذا كان هناك ضرر اقتصادي يلحق بقيمة أو بيع العمل الأصلي.
والحقيقة أن هذا المبدأ لا يُعد جديداً، وإنما ترجع جذوره التاريخية إلى حكم قضائي أمريكي عام 1841 في نزاع حول استخدام مراسلات لجورج واشنطن في كتاب عن سيرته الذاتية نقلاً عن كتاب آخر؛ حيث تضمن الحكم التاريخي أن “الاختصار العادل والحسن النية للعمل الأصلي، لا يُعد قرصنة لحقوق الطبع والنشر للمؤلف”، ثم أدرجه الكونغرس ضمن المادة 107 من قانون حقوق الطبع والنشر عام 1976، محدداً العوامل الأربعة السابق الإشارة إليها.
وبالرغم من قدم مبدأ “الاستخدام العادل”، وتعدد حالات استخدامه؛ فإنه يحمل دلالات خاصة في سياق الذكاء الاصطناعي، بالنظر إلى الملاحظات التالية:
1- الجدل حول “الاستخدام التحويلي”: يُمثل إعمال “الاستخدام التحويلي” على مخرجات النماذج اللغوية الكبيرة، تطوراً جوهرياً في تأويل هذا المفهوم القانوني الذي يشير إلى استخدام العمل الأصلي لغرض جديد يغير من طابعه أو رسالته. فعلى الرغم من أن التطبيقات الإبداعية التقليدية تعتمد في الأغلب على تحويل نصوص محددة يمكن تمييز بصمتها في العمل الجديد؛ فإن مخرجات النماذج اللغوية تعتمد على معالجة كمية ضخمة من النصوص؛ مما يجعل العلاقة بينها وبين النصوص الأصلية أقل وضوحاً؛ ما تسبب في حالة الجدل القائمة حول ما إذا كان استخدام هذه النصوص في التدريب، بالرغم من أنه لا يُنتج عادةً اقتباسات مباشرة، يُعد استخداماً تحويلياً من الناحية القانونية، خاصةً عندما يكون الغرض هو تطوير قدرات تفاعلية مستقلة للنموذج وليس تكرار المحتوى الأصلي.
2- مدى القدرة على إثبات الضرر: إن وصف الاستخدام بأنه “تحويلي” لا ينفي بشكل قطعي إمكانية وقوع انتهاك لحقوق الملكية الفكرية؛ وهو ما أشار إليه قاضي المحكمة الجزئية الأمريكية، فينس تشابريا، في قضية “ميتا”؛ حيث أشار إلى أن الحكم الذي أصدره “لا يدعم الادعاء بأن استخدام ميتا للمواد المحمية بحقوق الطبع والنشر لتدريب نماذجها اللغوية قانوني، وإنما يدعم فقط الادعاء بأن المؤلفين المُدعين قدموا حججاً خاطئة ولم يقدموا سجلاً يدعم الحجج الصحيحة”؛ ما يعني أن الأمر مرهون بإثبات أصحاب الحقوق أن ثمة ضرراً في السوق الأصلي أو أن جزءاً كبيراً من المحتوى قد أُعيد إنتاجه.
3- تعقُّد عمليات التدريب الآلي: تتضمن هذه العمليات تجاوزات قانونية تتصل بتخزين نصوص أصلية مقرصنة ضمن المكتبات المركزية المستخدمة في هذه العمليات. فعلى الرغم من أن القاضي في قضية “أنثروبيك” أكد أن الشركة لم تنتهك حقوق الطبع والنشر عندما قامت بتدريب الذكاء الاصطناعي على الكتب دون إذن مؤلفيها؛ فإنه مع ذلك اعتبر أن نسخ “أنثروبيك” وتخزينها لأكثر من سبعة ملايين كتاب مقرصن في مكتبة مركزية يُعد انتهاكاً لحقوق الطبع والنشر، وأن شراء الشركة للكتب بعد قرصنتها في وقت سابق لا يعفيها من المسؤولية القانونية عن “السرقة”. وهذا يسلط الضوء على الحاجة إلى إطار تعاقدي وتنظيمي واضح يضبط حدود استخدام المحتوى الإبداعي من قِبل أنظمة الذكاء الاصطناعي، ويعيد توازن العلاقة بين المبدعين ومطوري التكنولوجيا.
4- تحديات قانونية عابرة للحدود: إن مبدأ “الاستخدام العادل” الذي يُمثل حجر الزاوية في الأحكام التي أصدرها القضاة الأمريكيون، غير معتمد في العديد من الأنظمة القانونية حول العالم؛ ما يثير تحديات قانونية عابرة للحدود لا سيّما مع توسع شركات التكنولوجيا في استخدام المحتوى المنشور في دول مختلفة. فعلى سبيل المثال، تعتمد المملكة المتحدة، والهند، وجنوب إفريقيا، وأستراليا، مبدأ “التعامل العادل” (Fair Dealing)، والذي يُعد أكثر تقييداً وصرامة من النموذج الأمريكي؛ إذ ينص على حالات محددة يسمح فيها باستخدام العمل الأصلي دون إذن، مثل الأغراض التعليمية أو النقد أو البحث، مع اشتراط عدم إلحاق ضرر بمالك حقوق النشر. ويطرح هذا التباين إشكاليات بشأن صياغة إطار قانوني عابر للحدود يمكن من خلاله ضبط استغلال الأعمال الأصلية، لا سيّما مع النظر إلى أن التعلم الآلي يستمد قوته من التدريب على نطاق كبير من البيانات الضخمة والمتنوعة التي لا يمكن أن تتوفر ذاتياً دون التمدد خارجياً.
5- صعوبة تحديد المقدار المستخدم: يعتمد أحد المعايير المحددة لـ”الاستخدام العادل” على الكمية المستخدمة من النص الأصلي والتي يصعب تحديدها إلى حد بعيد في سياق الذكاء الاصطناعي، والذي يتطلب تدريباً على كميات هائلة من البيانات؛ مما يجعل من الصعب تقييم ما إذا كان الاستخدام جزئياً أم كلياً.
حلول مُقترحة:
على الرغم من إصدار القاضي الأمريكي، فينس تشابريا، قراراً لصالح شركة “ميتا”؛ فإنه أشار إبان إصدار حكمه إلى مخاوفه بشأن تقويض البشر المبدعين؛ حيث قال إن الذكاء الاصطناعي التوليدي لديه القدرة على إغراق السوق بصور وأغانٍ ومقالات وكتب لا نهاية لها باستخدام جزء صغير جداً من الوقت والإبداع الذي قد يكون مطلوباً لإنشائها، وهو ما يشير إلى مخاوف واسعة بشأن التوازن العادل والمسؤول فيما يتعلق بتطوير الذكاء الاصطناعي التوليدي.
فما بين عامي 2023 و2025، بلغ عدد الدعاوى القضائية المتعلقة بالذكاء الاصطناعي وحقوق النشر في الولايات المتحدة وحدها 22 قضية، ضمت كبرى شركات ناشري الكتب والأخبار ومنتجي الموسيقى ووكالات الصور وشركات الأبحاث والدراسات، في مقابل شركات التكنولوجيا العملاقة مثل “مايكروسوفت” و”ميتا” و”أوبن أيه آي” و”إنفيديا” و”جوجل” وغيرها؛ حيث يتمحور أغلب هذه الدعاوى في اتهام منتجات الذكاء الاصطناعي باستغلال المنتجات الإبداعية الأصلية دون إذن وتكبيد الشركات مالكة الحقوق خسائر فادحة بما يهدد قدرتها على الاستمرار.
وتُعبر تلك الدعاوى عن المخاوف المتزايدة لدى العاملين والمستثمرين في المنتجات الثقافية والإبداعية من المنافسة غير المتوازنة التي يفرضها الذكاء الاصطناعي التوليدي؛ وهو ما لا تعكسه الدعاوى القضائية فحسب، وإنما تعبر عنه أيضاً استطلاعات الرأي بين العاملين في الصناعات؛ إذ أظهر استطلاع للرأي نشرت نتائجه نقابة المؤلفين الأمريكيين عام 2023 وشمل أكثر من 1700 كاتب من خلفيات متنوعة، أن 90% من الكتَّاب يعتقدون أن المؤلفين يجب أن يحصلوا على تعويض إذا تم استخدام أعمالهم لتدريب تقنيات الذكاء الاصطناعي التوليدية، وأن 65% يدعمون نظام ترخيص جماعي من شأنه أن يدفع للمؤلفين رسوماً مقابل استخدام أعمالهم في تدريب الذكاء الاصطناعي.
ويُعد مقترح التراخيص الجماعية إحدى الأطروحات الأساسية التي يتم طرحها كجزء من تنظيم قانوني متوازن يحل تلك المعضلة المتفاقمة بشأن حقوق النشر والذكاء الاصطناعي. ففي نهاية العام 2024، قدم وزير الدولة البريطاني للعلوم والابتكار والتكنولوجيا آنذاك، ورقة استشارية للبرلمان في هذا الشأن، تطرح آلية تمويل التراخيص الجماعية من خلال مساهمات مطوري أنظمة الذكاء الاصطناعي الذين يستخدمون المحتوى المحمي في تدريب نماذجهم؛ حيث يتم تحديد رسوم الترخيص بناءً على حجم ونوع الاستخدام، مع إمكانية اعتماد نموذج تمويل يقوم على تحصيل رسوم من المستخدمين ثم توزيعها على أصحاب الحقوق بشكل متناسب مع معدل استخدام أعمالهم، هذا إلى جانب إنشاء صندوق مركزي تديره جهة تنظيمية مستقلة كجزء من هيئة الملكية الفكرية البريطانية لضمان شفافية عملية التمويل والتوزيع، مع إمكانية دعم هذا النظام من خلال رسوم إضافية على خدمات الذكاء الاصطناعي التجارية أو عبر تخصيص جزء من عائدات الشركات المطورة لهذه النماذج.
أُطر أخلاقية مستدامة:
تُعد حقوق النشر جزءاً من قضية أوسع تتعلق ببناء نظم تدريب آلي مستدامة ومبنية على المسؤولية الأخلاقية؛ إذ تكمن المشكلة الرئيسية في عدم كشف الشركات المطورة للنماذج الذكية عن مصادر البيانات المستخدمة في تدريب نماذجها بشكل دقيق؛ مما يشكل أزمة شفافية حقيقية، تستبدل فيها الشركات الإفصاح الواضح عن طبيعة البيانات المستخدمة، باستخدام عبارات غامضة مثل “بيانات الإنترنت” أو “المصادر المفتوحة”، وهي صياغات لا تُعد كافية لضمان الشفافية أو الالتزام بالمسؤولية الأخلاقية، خاصةً مع وجود أدلة على استخدام قواعد بيانات مقرصنة مثلما الحال في قضية “أنثروبيك”؛ وهو ما يضع تلك الشركات في مواضع الشك والاتهام من حيث التزامها بمبادئ النزاهة والشفافية، وبما يؤثر سلباً في القيمة السوقية للمنتجات الأصلية والنماذج الذكية على السواء، فضلاً عن تحديات استمرارية الصناعات الثقافية والإبداعية.
وفي ضوء مفاهيم الذكاء الاصطناعي الأخلاقي والمسؤول، تبرز الحاجة إلى التزام شركات الذكاء الاصطناعي بحوكمة سياساتها المتعلقة بتدريب النماذج الآلية، وخاصةً في الجانب المتعلق ببيانات التدريب؛ من أجل تأسيس بنية تحتية أكثر عدالة وشفافية في هذا المجال تضمن علاقة متوازنة بين تطوير النماذج الآلية وحقوق النشر؛ وهو ما يبدأ مع تنظيم العلاقة التعاقدية بين شركات الذكاء الاصطناعي وأصحاب الحقوق وذلك ضمن بنية قانونية واضحة لضبط استخدام البيانات، تتضمن شروط الاستخدام وحدود الترخيص ونماذج التوزيع العادل للعوائد، لا سيّما مع الاستخدام الربحي والتجاري لتلك المشروعات.
وإلى جانب التنظيمات القانونية المتعلقة بمراعاة حقوق المبدعين، يبدو إنشاء شراكات مباشرة بين الشركات التكنولوجية ودور النشر والمبدعين، خطوة مهمة نحو تسوية قانونية عادلة لاستخدام المحتوى الإبداعي في تدريب النماذج. وهذه الشراكات لا تُعزز فقط شرعية مصادر البيانات، بل تفتح أيضاً آفاقاً لتعويضات عادلة لأصحاب الحقوق، سواء أكانت مالية مباشرة أم شراكات في التطوير التكنولوجي. وفي هذا السياق، برزت الشراكة التي أعلنت عنها شركة “أوبن إيه آي” مع صحيفة “الغارديان” البريطانية في فبراير 2025.
من ناحية أخرى، يُعد الإفصاح عن مصادر بيانات التدريب أحد الأعمدة الأساسية لحوكمة الذكاء الاصطناعي، وقد اتخذ الاتحاد الأوروبي موقفاً واضحاً في هذا الصدد عبر قانون الذكاء الاصطناعي الذي أقره البرلمان الأوروبي في 13 مارس 2024 ويُطبق تدريجياً حتى عام 2026؛ وهو يفرض على مطوري النماذج التوليدية التزاماً بالكشف عن المحتوى المحمي الذي تم استخدامه في تدريب النماذج، ويضع آليات رقابة وعقوبات واضحة على الشركات التي تنتهك متطلبات الشفافية.
ولا يستقيم ذلك سوى مع مراقبة الالتزام بالمعايير القانونية والأخلاقية في تجميع البيانات؛ وهو ما يتم الاسترشاد فيه بمبادئ الذكاء الاصطناعي المسؤول كما وردت في توصيات منظمة اليونسكو، إلى جانب اللوائح الأوروبية، والتي تُعد من أبرز الأُطر التي تدعو إلى تعزيز الشفافية والعدالة في تجميع البيانات. مع الأخذ في الاعتبار دور المجتمعات الأكاديمية والمؤسسات البحثية في بناء بيئة معرفية مرخصة وشفافة تُمكّن من تطوير الذكاء الاصطناعي ضمن إطار قانوني وأخلاقي، ويمكن هنا الإشارة إلى إطلاق جامعة هارفارد في ديسمبر 2024 مجموعة بيانات عالية الجودة تضم ما يقرب من مليون كتاب متاح للعامة، يمكن لأي شخص استخدامها لتدريب نماذج لغوية كبيرة وأدوات ذكاء اصطناعي أخرى، ضمن مبادرة تم تمويلها من “مايكروسوفت” و”أوبن إيه آي”.
ختاماً، إن العلاقة بين الذكاء الاصطناعي وحقوق النشر تمر بمرحلة انتقالية حرجة؛ حيث تواجه التشريعات الوطنية والدولية تحديات كبيرة في موازنة الحوافز الاقتصادية والابتكارية مع حماية الإبداع البشري وحقوق المؤلفين، وتشير الأحكام القضائية الأخيرة في الولايات المتحدة إلى تحول قانوني واضح؛ ولكنه ليس نهائياً وشاملاً، بالنظر إلى تحديات قانونية عديدة تلتبس مفهوم “الاستخدام العادل” ذاته وتطبيقه في سياق الذكاء الاصطناعي من ناحية، إلى جانب إشكاليات تطبيقه عبر الحدود وقبوله دولياً من ناحية أخرى، ما يؤشر على الحاجة لحلول أكثر عدلاً وواقعية تستند إلى نظام مستدام ومتوازن يحفظ العلاقة بين حماية الملكية الفكرية ودعم الابتكار التكنولوجي، سواء من خلال نظام تراخيص جماعية، أم آليات تعويض عادلة، أم تشجيع استخدام البيانات العامة والمفتوحة؛ من أجل بيئة إبداعية وتقنية مبنية على أساس من العدالة والشفافية والمسؤولية المشتركة.
” يُنشر بترتيب خاص مع مركز المستقبل للأبحاث والدراسات المتقدمة، أبوظبى ”