جريدة الوطن:
2025-07-02@10:40:38 GMT

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

تاريخ النشر: 17th, February 2024 GMT

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

 

«تشات جي بي تي» مؤلفًا لأوراق بحثية!

 

 

 

 

بعدما ذاع صيته واجتاح العالم في لمح البصر، ها هو روبوت الدردشة «تشات جي بي تي» ChatGPT، القائم على الذكاء الاصطناعي، يسجِّل أول حضور رسمي له في الأدبيات العلمية، باعتماده مؤلفًا فيما لا يقل عن أربعة أبحاث منشورة ومسوَّدات بحثية ماثلة للنشر.

ويدور الجدل حاليًا بين محرري الدوريات والباحثين والناشرين حول موقع تلك الأدوات القائمة على الذكاء الاصطناعي من المجال البحثي، وما إن كان مناسبًا إدراج الروبوت في قائمة المؤلفين للدراسات.

وفي الأثناء، يتسابق الناشرون لوضع السياسات التي من شأنها وضع الضوابط اللازمة لاستخدام الأدوات على شاكلة «تشات جي بي تي»، الذي صدر كأداة متاحة للاستخدام مجانًا في نوفمبر الماضي من قبل شركة التقنية «أوبن إيه آي» OpenAI، ومقرها سان فرانسيسكو بولاية كاليفورنيا الأمريكية.

و«تشات جي بي تي» هو واحد من تلك النماذج اللغوية الكبيرة (LLMs)، يعمل على تأليف وتوليد جُملٍ مُقنعة، عبر محاكاة الأنماط الإحصائية للُّغة في قاعدة بيانات ضخمة، تحوي نصوصًا مجمّعة من شبكة الإنترنت. وقد أصاب هذا الروبوت عديدًا من المجالات والأوساط، ومنها الوسط الأكاديمي، بالبلبلة والارتباك. وتحديدًا، أثار هذا الروبوت عددًا من التساؤلات حول مستقبل الواجبات المدرسية والجامعية، وعملية الإنتاج البحثي برُمَّتها.

وقد تواصل فريق الأخبار بدورية Nature مع عدد من الناشرين ومالكي خوادم المسودات العلمية، وأجمعت الآراء على أن أدوات الذكاء الاصطناعي، ومنها «تشات جي بي تي»، لا تستوفي المعايير اللازم توافرها في مؤلّف الدراسات العلمية؛ فأداةٌ كهذه لا تستطيع تحمل المسؤولية عن المحتوى، ومدى سلامة البحث ونزاهته من الناحية العلمية. إلا أن بعض الناشرين أوضحوا بأن مساهمة الذكاء الاصطناعي في صياغة الأبحاث العلمية يمكن إقرارها، وإدراجها في موضع آخر، بخلاف قائمة المؤلفين. (يُذكر أن فريق الأخبار بدورية Nature مستقل من الناحية التحريرية عن الفريق الصحفي، وعن ناشر الدورية، «سبرينجر نيتشر» Springer Nature).

وفي إحدى الحالات، أفاد أحد المحررين، في تصريحاتٍ أدلى بها للدورية، بأن «تشات جي بي تي» قد أُدرج في قائمة المؤلفين على سبيل الخطأ، وأن الدورية التي يعمل بها تداركت ذلك الخطأ.

 

مؤلف اصطناعي

أُدرج روبوت الدردشة «تشات جي بي تي» ضمن اثني عشر مؤلفًا على إحدى المسودات البحثية1 حول استخدام تلك الأداة في التعليم الطبي، وهي المسودة التي نُشرت على خادم «ميد آركايف» medRxiv للمسودات البحثية الطبية في ديسمبر من العام الماضي.

 

ويناقش الفريق الذي يدير هذا الخادم، إلى جانب موقعه الشقيق «بايو آركايف» bioRxiv، ما إذا كان مناسبًا استخدام أدوات الذكاء الاصطناعي، وتسميتها مؤلفًا للدراسات، حسبما يقول الشريك والعضو المؤسس ريتشارد سيفر، وهو مساعد مدير دار النشر «كولد سبرينج هاربور لابوراتوري برس» Cold Spring Harbor Laboratory Press في نيويورك، مضيفًا أن الأعراف قد تتغير.

يقول سيفر: “نحن بحاجة إلى التفرقة ما بين الدور الرسمي لمؤلف ورقة بحثية، والمفهوم الأعمّ للمؤلف الذي يكتب مستندًا ما”، موضحًا أن المؤلفين يتحملون مسؤولية قانونية عن أعمالهم، ولذلك يجب وضع أسماء الأشخاص فقط. وأضاف: “بطبيعة الحال، قد يحاول الكثيرون دسّ الأمر خلسة – وهو ما حدث بالفعل على خادم «ميد آركايف» – تمامًا كما وضع آخرون فيما مضى أسماء حيوانات أليفة وشخصيات خيالية، ونحو ذلك، ودسُّوا هذه الأسماء في قائمة مؤلفي أبحاث منشورة بدوريات علمية؛ على أنَّ هذه المسألة تتعلق بآليات التحقق أكثر مما تتعلَّق بسياسات النشر”. (أرسلنا طلبًا للتعقيب على ذلك إلى فيكتور تسينج، المؤلف المراسل المسؤول عن المسودة البحثية، والمدير الطبي لمؤسسة «أنسيبل هيلث» Ansible Health في ماونتن فيو بولاية كاليفورنيا الأمريكية، إلا أننا لم نتلق منه أي رد).

وفي افتتاحية دورية «نيرس إيديوكيشن إن براكتيس» Nurse Education in Practice، في عددها الصادر في فبراير 2023، سُمِّيت أداة ذكاء اصطناعي مؤلفًا مشاركًا، جنبًا إلى جنب مع شيفان أوكونور، الباحث المتخصص في التقنيات الصحية بجامعة مانشستر بالمملكة المتحدة. وعن ذلك الأمر، علّق روجر واتسون، رئيس تحرير الدورية المذكورة، قائلاً إنه خطأ حدث سهوًا، وسوف يتم تدارُكُه عاجلاً. وأضاف: “كان ذلك سهوًا من جانبي، لأن الافتتاحيات تمر عبر منظومة إدارية مختلفة عن الأوراق البحثية”.

كما وضع أليكس زافورونكوف، الرئيس التنفيذي لشركة «إنسيليكو ميديسين» Insilico Medicine، وهي شركة متخصصة في الاستكشافات الدوائية المستندة إلى الذكاء الاصطناعي في هونج كونج، الروبوت «تشات جي بي تي» مؤلفًا مشاركًا لمراجعة بحثية3 في دورية «أونكوساينس» Oncoscience في يناير الماضي. ويعلق على هذا بقوله إن شركته نشرت أكثر من 80 ورقة بحثية أصدرتها أدوات الذكاء الاصطناعي التوليدية، مضيفًا: “لسنا حديثي عهد بهذا المجال”.

كما أوضح أن دورية «أونكوساينس» راجعت تلك الورقة البحثية بنظام مراجعة الأقران، بعد أن طَلب من محررها القيام بذلك. وقد طلبت Nature تعقيبًا من الدورية على ذلك، إلا أننا لم نتلق ردًا حتى الآن.

وهناك بحث رابع، من المقرر نشره قريبًا في إحدى الدوريات المُحكَّمة، شارك في كتابته روبوت الدردشة في نسخته الأقدم، التي تحمل اسم «جي بي تي 3» GPT-3، ونُشر على الخادم الفرنسي للمسودات البحثية «هال» HAL في يونيو 2022، حسبما صرّحت المؤلفة المشاركة ألميرا أوسمانوفيتش ثانستروم، المتخصصة في البيولوجيا العصبية بمستشفى جامعة سالجرينسكا في جوتنبيرج بالسويد. وأضافت ثانستروم أن إحدى الدوريات رفضت الورقة البحثية بعد مراجعتها، إلا أنها قُبلت من دورية أخرى بعد إدراج الروبوت «جي بي تي 3» مؤلفًا مشاركًا، بعد أن أعادت صياغة المقال استجابةً لطلبات المُراجِع.

 

سياسات الناشر

وقد شدَّد رئيسا تحرير دوريتَي Nature و«ساينس» Science، في تصريحاتٍ أدلي بهالفريق الأخبار بدورية Nature، على أن الروبوت «تشات جي بي تي» لا يستوفي المعايير الواجب توفُّرها في المؤلفين. وعن هذا الأمر، تحدثت ماجدالينا سكيبر، رئيسة تحرير Nature في لندن، قائلة: “نسبة النصوص إلى مؤلفيها تحمل في طياتها المسؤولية عن العمل، وهو ما قد يتعذر تطبيقه بكفاءة على النماذج اللغوية الضخمة”. وأضافت كسيبر أن المؤلفين الذين يستخدمون تلك النماذج اللغوية أثناء إعدادهم ورقة بحثية، أيًّا ما كان شكل هذا الاستخدام، يتوجب عليهم توثيق ذلك في قسم المنهجية، أو الشكر والتقدير، متى كان ذلك مناسبًا.

أما هولدن ثورب، رئيس تحرير عائلة دوريات «ساينس» في واشنطن دي سي، فيعلق على ذلك بالقول: “لن نسمح بوضع الذكاء الاصطناعي مؤلفًا على ورقة بحثية تُنشر لدينا، كما أن استخدام نص من تأليف الذكاء الاصطناعي دون وضع الاستشهاد المناسب قد يرقى إلى مرتبة السرقة العلمية”.

أما سابينا ألم، مديرة أخلاقيات النشر والنزاهة البحثية لدى شركة النشر «تايلور آند فرانسيس» Taylor & Francis، ومقرُّها العاصمة البريطانية لندن، فقد ذكرت أن الشركة تعكف حاليًا على مراجعة سياساتها. وتوافق ألم على ضرورة أن يكون المؤلفون مسؤولين عن صحة أعمالهم البحثية، ونزاهتها، وأنهم يتوجب عليهم وضع معلومات الاستشهاد الملائمة لدى أي استخدام للنماذج اللغوية الضخمة في قسم “الشكر والتقدير”، إلا أن الشركة لم تتلق حتى الآن أي أوراق مقدمة تنسب حقوق التأليف إلى الروبوت «تشات جي بي تي»، بوصفه مؤلفًا مشاركًا.

ومن جانبه، أجرى مجلس إدارة خادم المسودات البحثية للعلوم الفيزيائية «أركايف» arXiv نقاشات داخلية، وبدأ يتشكَّل إجماع حول اتباع منهج معين، يقضي باستخدام الذكاء الاصطناعي التوليدي، وفق ما صرح به المدير العلمي ستاين سيجوردسون، وهو عالم فلك بجامعة ولاية بنسلفانيا بمدينة يونيفرسيتي بارك. ويتفق سيجوردسون على أن الأداة البرمجية لا يمكن أن تسمَّى مؤلفًا لورقة بحثية، والسبب في ذلك يعود جزئيًا إلى أن تلك الأداة لا يمكنها الموافقة على شروط الاستخدام، والحق في توزيع المحتوى. ويقول سيجوردسون إنه، على حد علمه، لا توجد أي مسودات بحثية على خادم «أركايف» تضع «تشات جي بي تي» في قائمة مؤلفيها، مضيفًا أنه من المقرر إصدار تعليمات إرشادية للمؤلفين قريبًا.

 

أخلاقيات الذكاء الاصطناعي التوليدي

هناك بالفعل مبادئ إرشادية واضحة بخصوص المؤلفين، من شأنها ألا تجيز إدراج هذا الروبوت مؤلفًا مشاركًا للأبحاث، حسبما يوضح مات هودجكينسون، مدير النزاهة البحثية في «مكتب النزاهة البحثية بالمملكة المتحدة» ومقره لندن، متحدثًا بصفته الشخصية.

واحدٌ من تلك المبادئ، حسبما يذكر هودجكينسون، ينص على ضرورة أن يقدم المؤلف المشارك “إسهامًا علميًا مهمًا” بالبحث؛ وهو ما قد يكون ممكنًا مع أدوات الذكاء الاصطناعي على شاكلة «تشات جي بي تي». إلا أنه يجب أن تكون لديه القدرة على أن يوافق على أن يكون مؤلفًا مشاركًا، وأن يتحمل المسؤولية عن الدراسة، أو، على الأقل، عن الجزء الذي ساهم به. ويرى هودجكينسون أن “هذا الشق الأخير هو بالفعل ما يضع فكرة تسمية أداة الذكاء الاصطناعي مؤلفًا مشاركًا أمام طريق مسدود”.

عن دورية نيتشر

 

 

 


المصدر: جريدة الوطن

إقرأ أيضاً:

حقوق النشر في عصر الذكاء الاصطناعي.. كيف تعيد التكنولوجيا صياغة قواعد الملكية الفكرية؟

في زمن غير بعيد، كانت حقوق النشر تمثل خطّ الدفاع الأول عن المبدعين والمفكرين و المنتجين الثقافيين في وجه الاستنساخ والتعدّي والاستغلال غير المشروع لأعمالهم. وكان الإبداع مرتبطا ارتباطا وثيقا بالهوية الإنسانية، وكانت القوانين المنظمة لحقوق النشر تعمل، وإن كان ببطء أحيانا، على حماية هذا الإبداع في صورته الأصلية ومنح أصحابه الاحتراف والملكية والربح المستحق.

لكن مع صعود الذكاء الاصطناعي التوليدي الذي لا يبدع من العدم، بل يتغذى على ما أبدع فيه البشر من قبل، أُعيد رسم المشهد القانوني والأخلاقي من جذوره.

إن دخول هذه التكنولوجيا إلى معادلة الإنتاج المعرفي والثقافي لم يكن مجرد تطور تقني، بل كان ضربة قاسية لأسس التوازن بين المبدع والمؤسسة، وبين صاحب العمل والمستهلك، وبين ما يعدّ اقتباسًا مشروعا وما يعدّ استغلالا صامتًا.

خوارزميات الذكاء الاصطناعي التوليدي اليوم قادرة على إنشاء نصوص وصور وأصوات وحتى أفكار مبنية على مليارات من الأعمال البشرية السابقة، كثير منها محمي بموجب حقوق النشر. غير أن هذه الأعمال تستهلك بصمت في تدريب هذه النماذج من دون إذن أو تعويض، وذلك يثير أسئلة وجودية عمن يملك الإبداع في العصر الرقمي: هل هو الإنسان أم النموذج؟ وهل تملك الشركات التقنية الحق في تسخير جهود الملايين من دون الرجوع إليهم؟

بين الاستخدام العادل وتحديات حقوق النشر.. صراع جديد أم توازن مختلف؟

قد يُخيّل إلينا أننا رأينا هذا المشهد من قبل: شركات التكنولوجيا تسعى في كل دورة تقنية جديدة إلى بناء منتجاتها على حساب أصحاب حقوق النشر، عبر استغلال أعمالهم من دون إذن أو تعويض.

يلي ذلك عادة موجة من الدعاوى القضائية، ثم بعض التعديلات التشريعية، قبل أن يظهر شكل جديد من التوازن يستوعب التكنولوجيا ويحاول حفظ حقوق المبدعين. لكن، كما هو الحال مع معظم ما يتعلق بالذكاء الاصطناعي، هذه المرة مختلفة تماما.

إعلان

فَالذكاء الاصطناعي التوليدي لا يكتفي بإعادة استخدام المحتوى المحميّ، بل يمتلك القدرة على تعزيز الإنتاجية وجودة الإبداع البشري بشكل غير مسبوق. فالأدوات المدعومة بهذه التكنولوجيا باتت تتيح للمبدعين إنتاج محتوى عالي الجودة بتكلفة زهيدة، وذلك يغيّر بعمق طبيعة العمل الإبداعي وموقعه. ولن يعود الإبداع كما عهدناه، إذ أصبح من الصعب فصل موهبة الإنسان عن خوارزميات الآلة.

في هذا السياق الجديد، لم يعد جوهر النزاع يدور فقط بين شركات التكنولوجيا وأصحاب الحقوق، بل أخذ يتبلور صراع داخلي بين المبدعين أنفسهم. فالتقنيات التي استخدمت في السابق لإعادة إنتاج المحتوى القائم باتت تستخدم اليوم لإنتاج محتوى أصيل، وغالبا من قبل المؤسسات نفسها أو الأفراد الذين يمتلكون الحقوق الأصلية.

وهنا يتضاعف التهديد، ليس فقط في الاستيلاء على منجزات الماضي، بل في إعادة تعريف من يحق له أن يكون جزءا من المشهد الإبداعي المستقبلي.

من الناحية القانونية تعتمد شركات الذكاء الاصطناعي مثل "أوبن إيه آي" و"أنثروبيك" على مبدأ "الاستخدام العادل" لتبرير استخدام الأعمال المحمية أثناء تدريب النماذج (شترستوك) الأساس القانوني.. هل الاستخدام العادل كافٍ؟

من الناحية القانونية، تعتمد شركات الذكاء الاصطناعي مثل "أوبن إيه آي" و"أنثروبيك" على مبدأ "الاستخدام العادل" لتبرير استخدام الأعمال المحمية أثناء تدريب النماذج. وتؤكد هذه الشركات أن تلك الأعمال تستخدم لأغراض تحويلية، أي لبناء نموذج ذكاء اصطناعي لا لإعادة توزيع المحتوى الأصلي أو التربح المباشر منه.

ولكن هذا التبرير محلّ جدل واسع. ففي القضية المرفوعة من نيويورك تايمز ضد "أوبن إيه آي"، رفض القاضي مؤخرا إسقاط الدعوى، وذلك يشير إلى أن القضية مرشحة للاستمرار نحو محاكمة كاملة، وربما إرساء سابقة قانونية جديدة.

ورغم غياب حكم نهائي، يرى كثير من المتابعين أن موقف شركات الذكاء الاصطناعي قد يكون أقوى، لكونها تنتج نماذج جديدة اعتمادا على نسخ وسيطة لا توزع كما هي، ولا تقدم نواتج تطابق المحتوى الأصلي في الشكل أو الهدف، إلا في حالات نادرة.

السوق والنوايا.. مشكلة في المنطقة الرمادية

تكمن الإشكالية الأكبر في المنطقة الرمادية بين القانون والأخلاق. فحتى إن لم تكن مخرجات النماذج الذكية تنسخ الأعمال الأصلية حرفيّا، فإنها قد تنتج محتوى ينافسها ضمن نفس الفئة أو الموضوع.

على سبيل المثال، إذا استخدم نموذج مثل "لاما 3" (LLaMa 3) لتأليف كتاب عن موضوع معين بعنوان معيّن فقد يؤثر ذلك على مبيعات كتاب آخر موجود بالعنوان نفسه، حتى من دون نسخ مباشر.

وهنا يبرز سؤال مهم: هل ينبغي أن تمتد حماية حقوق النشر إلى السوق الإبداعي المحتمل، ليس فقط إلى النصوص الموجودة فعليا؟

في المقابل، من غير المرجح أن تذهب المحاكم إلى حد توسيع نطاق قانون حقوق النشر لِيحظر المنافسة أو يحمي الأعمال المستقبلية غير المكتوبة. فالقانون صُمّم أساسا لحماية الأعمال المنتجة من النسخ غير المشروع، وليس لمنع إنتاج أعمال جديدة تتناول مواضيع مشابهة بأساليب مختلفة.

لذا، قد لا يكون هذا القانون كافيا لمواجهة التحديات الحالية، وذلك يدعو إلى التفكير في أطر تشريعية جديدة تتناول حقوق البيانات وآليات توزيع عوائد الذكاء الاصطناعي، بما يحقق توازنا أكثر عدالة بين المبدعين وشركات التكنولوجيا.

إعلان أسلوبك ليس مباحًا.. نحو قانون لحماية الشخصية في عصر الذكاء الاصطناعي

من المعروف أن مخرجات الذكاء الاصطناعي التي تُطابق بشكل جوهري أعمالا محميّة تعدّ تعديًا صريحًا على حقوق النشر، ولهذا تبذل الشركات جهودا حثيثة لرصد تلك المخرجات ومنع تطابقها مع محتوى قائم.

لكن هذا المعيار التقليدي "الشبه جوهري" لا يكفي لحماية المبدعين حين تقلّد الخوارزميات أسلوبهم الفني أو الأدبي المميز من دون نسخ مباشر. فالمشكلة لم تعد في تقليد العمل ذاته، بل في استنساخ الهوية الإبداعية بأساليب يصعب قانونيا حمايتها، وذلك يشكل تهديدا حقيقيّا لأرزاق الفنانين والكُتّاب، خاصة في ظل قدرة النماذج الحديثة على توليد كمّ هائل من المحتوى المشابه.

وقد لفت أستاذ القانون بنيامين سوبيل إلى التحديات القانونية في توسيع نطاق حقوق النشر لتشمل "الأسلوب الشخصي"، مشيرا إلى أن حجم التهديد المتزايد يستدعي التفكير في إطار قانوني جديد.

وفي السياق ذاته، دعت نقابة المؤلفين الأميركية إلى سنّ قانون اتحادي لحق الدعاية يمنح المبدعين الأحياء الحق في التحكم بمخرجات الذكاء الاصطناعي التي تحاكي أسلوبهم الشخصي، والحصول على تعويضات عادلة مقابل استخدامها.

بدورها، أقرّت شركة "أوبن إيه آي" بوجود هذه الإشكالية، وأعلنت أن أداتها الأخيرة لتوليد الصور تتضمن آلية "رفض" تمنع المستخدمين من توليد صور "بأسلوب فنان حيّ". ولكن هذه السياسة، رغم نواياها، لا تحظر استنساخ الأساليب ذاتها، إذ تسمح بإنشاء أعمال ضمن "أنماط أستوديو أوسع".

وقد أدى ذلك، على سبيل المثال، إلى تدفق أعمال تحاكي أسلوب أستوديو "جيبلي"، من دون الإشارة إلى اسم هاياو ميازاكي، كأن "أوبن إيه آي" مستعدة لحظر الطلبات التي تستهدف إنشاء فن بأسلوب بيتر بول روبنز، لكنها تسمح بتلك التي تطلب تقليد أسلوب الورشة التي كان روبنز يديرها في مدينة أنتويرب البلجيكية، وهو ما يكشف عن ثغرات في أنظمة الحماية التقنية قد تستدعي تدخلا تشريعيا أكثر حزمًا.

كذلك ترتبط هذه القضية بالحاجة إلى تقييد مخرجات الذكاء الاصطناعي التي تشبه صوت فرد معين أو مظهره. فحتى الآن، لا يمنح قانون حقوق النشر الأشخاص الحق في السيطرة على هذه المخرجات، كما أشار مكتب حقوق النشر في تقريره لعام 2023.

ويعدّ مشروع القانون "إس.4875" (S.4875)، المعروف باسم "قانون لا للتزوير" (NO FAKES Act)، محاولة جادة في هذا السياق، إذ يقترح هذا المشروع، الذي قدمه العام الماضي السيناتور كريس كونز -ديمقراطي عن ديلاوير- إنشاء حث رقمي جديد في "التمثيل الإلكتروني العالي الواقعية" لصوت فرد يمكن التعرف عليه أو صورته، وهو حق منفصل عن حقوق النشر، ويتيح لصاحبه الترخيص أو رفض ترخيص صوته أو صورته، حتى في التعامل مع شركات إعلام كبرى.

عند اعتماد أطر جديدة أكثر عدالة تبقى مسألة الشفافية في استخدام الأعمال المحمية أثناء التدريب محلّ جدل واسع (شترستوك) قوانين الشفافية.. محاولة مبكرة لحل غير ناضج

لكن حتى عند اعتماد أطر جديدة أكثر عدالة، تبقى مسألة الشفافية في استخدام الأعمال المحمية أثناء التدريب محلّ جدل واسع. فمع عدم حسم مشروعية استخدام المواد المحمية بحقوق النشر في تدريب نماذج الذكاء الاصطناعي، تظل التشريعات المقترحة بشأن الشفافية في مراحلها الأولى، وقد لا تكون ضرورية أصلا.

ففي أبريل/نيسان 2024، قدم النائب آدم شيف -ديمقراطي عن كاليفورنيا- مشروع القانون "إتش آر 7913" (H.R. 7913)، المعروف باسم "قانون الكشف عن حقوق النشر في الذكاء الاصطناعي التوليدي لعام 2024″، والذي يلزم مطوري النماذج بتقديم إشعار لمكتب حقوق النشر يتضمن ملخصا كاملا بالأعمال المحمية المستخدمة في التدريب.

وفي نوفمبر/تشرين الثاني من العام نفسه طرح السيناتور بيتش ويلش -ديمقراطي عن فيرمونت- مشروع القانون "إس. 5379" (S.5379) أو "قانون الشفافية والمسؤولية لشبكات الذكاء الاصطناعي"، الذي يلزم المطورين بالكشف الكامل لشركات المحتوى عن الأعمال المحمية التي استخدمت في التدريب. ومن المتوقع إعادة طرح كلا المشروعين خلال هذا العام.

إعلان

وفي كاليفورنيا، تمّ تقديم مشروع قانون في فبراير/شباط 2025، عُدّل لاحقا في مارس/آذار من قبل لجنة الخصوصية وحماية المستهلك، يطالب مطوري النماذج بإنشاء "بصمة محتوى تقريبية" (approximate content fingerprint) لكل عمل مستخدم في التدريب، وتوضيح آلية إنتاج هذه البصمات باستخدام التقنية نفسها، إضافة إلى الاستجابة لطلبات التعرف من مجتمع المحتوى.

غير أن هذه المبادرات التشريعية تفترض مسبقا أن استخدام الأعمال المحمية في التدريب ليس "استخداما عادلا"، وهي فرضية لم تبتّ قانونيّا بعد. فإذا رأت المحاكم أن التدريب يندرج تحت الاستخدام العادل، فلن يكون هناك انتهاك قانوني يستدعي هذا النوع من الإفصاحات، مما يجعل أنظمة الشفافية مجرد عبء بيروقراطي باهظ من دون جدوى عملية.

من جهة مماثلة، قد تطرح مبررات أخرى للشفافية مثل كشف التحيزات أو انتهاكات الخصوصية أو التحقق من دقة البيانات، لكنّها حينئذٍ ينبغي أن تكون جزءا من أجندة أوسع تعالج مبادئ العدالة والحوكمة في الذكاء الاصطناعي، لا امتدادا لقوانين حقوق النشر التقليدية.

أما إذا فشل دفاع الاستخدام العادل في المستقبل، فقد يكون الحل في تعديل منظومة حقوق النشر لتلبية احتياجات الطرفين: المطورين وأصحاب الحقوق. وقد يتجلى ذلك في شكل ترخيص إلزامي، أو خيار "الانسحاب الطوعي" كما يُناقش في المملكة المتحدة، أو حتى في تعديل تشريعي يمكّن من تشكيل كيانات جماعية تفاوض باسم أصحاب الحقوق، كما اقترحت بعض النقابات.

ورغم كل ذلك قد لا تكون الشفافية التفصيلية شرطا أساسيا حتى في هذه الحالة. فشركاتُ الذكاء الاصطناعي غالبا ما تستخدم كل ما هو متاح علنا، مما قد يدفع المحاكم إلى افتراض قابل للدحض بأن الأعمال المنشورة على الإنترنت قد استخدمت في التدريب، من دون الحاجة لإثبات دقيق.

في هذه الحالة، قد يتبين أن نظم التتبع والتوثيق المعقدة لا تضيف قيمة تذكر في تمكين أصحاب الحقوق من المطالبة بحقوقهم.

التحديات القانونية.. هل يستحق المحتوى المولّد بالذكاء الاصطناعي حماية حقوق النشر؟

إذا كانت قوانين الشفافية لا تعالج بشكل جوهري مسألة الحوافز الإبداعية، فإن إحدى المقاربات الأكثر جوهرية تكمن في مراجعة مفهوم حماية حقوق النشر في عصر الذكاء الاصطناعي.

وقد تجلى هذا التحدي بوضوح في قضية ستيفن ثالر، المخترع والرائد في مجال الذكاء الاصطناعي، الذي تقدم بطلب إلى مكتب حقوق النشر الأميركي، لتسجيل عمل فني أنشأه نظام ذكاء اصطناعي يدعى "كرياتيفيتي ماشين" (Creativity Machine).

وقد حُسمت القضية أخيرا، إذ قضت محكمة الاستئناف الأميركية في دائرة كولومبيا بأن نموذج الذكاء الاصطناعي لا يمكن اعتباره "مؤلفا" بالمعنى القانوني لحقوق النشر.

وفي السياق ذاته، أكد مكتب حقوق النشر الأميركي في تقريره عن مدى أهلية الأعمال للحماية أن المؤلفين البشر لا يمكنهم المطالبة بحقوق النشر عن المحتوى الذي ينتج باستخدام نماذج الذكاء الاصطناعي.

وإذ إن النموذج نفسه لا يعدّ مؤلفا، ولا يمكن للمستخدم البشري أن يطالب بالحماية القانونية لهذا النوع من الأعمال، فإن هذه الأعمال تعدّ تلقائيا ضمن الملكية العامة.

وبحسب تقرير نشرته مؤسسة بروكينغز البحثية (Brookings Institution)، تترتب على هذا الموقف القانوني تداعيات واسعة. إذ تفقد الشركات الحافز لاستخدام الذكاء الاصطناعي في إنتاج مواد مثل التقارير الإخبارية، والأغاني، والنصوص، والصور، والفيديوهات، وسواها من المحتويات.

فإذا تجاوزت نسبة استخدام الذكاء الاصطناعي ما يعتبر "ضئيلا جدا" (de minimis)، فإن أي شخص يمكنه نسخ تلك المادة وإعادة توزيعها بحرية. وفي ظل غياب حماية حقوق النشر، تنعدم الحوافز القانونية، ويؤدي ذلك إلى انخفاض في إنتاج هذا النوع من الأعمال.

ورغم ذلك، فإن بعض شركات المحتوى قد تستمر في تسجيل أعمالها لدى مكتب حقوق النشر، مع استثناء الأجزاء التي تولدها أنظمة الذكاء الاصطناعي.

فعلى سبيل المثال، يمكن لشركة أفلام تسجيل فيلم يحتوي على مشاهد مؤثرات بصرية تم توليدها باستخدام الذكاء الاصطناعي، لكنها لن تتمكن من حماية تلك المشاهد نفسها. وهذا من شأنه أن يقيّد حجم المحتوى المدعوم بالذكاء الاصطناعي الذي يمكن إدراجه في أعمال إبداعية محمية.

وإذا اضطرت الشركات إلى التخلي عن حماية أي محتوى ناتج عن الذكاء الاصطناعي يتجاوز الحد الأدنى المقبول، فإن أقصى ما قد تحققه هو حقوق نشر ضعيفة. على سبيل المثال، قد تحاول إثبات أن اختيارها وتنسيقها وترتيبها لمواد غير محمية قانونيا، أنتجها الذكاء الاصطناعي، ينطوي على إبداع أصيل كافٍ لاستحقاق الحماية.

إعلان

ومع أن هذا النوع من الحماية متاح قانونًا، فإنه يعرض العمل لتقييمات فردية وذاتية من قبل مكتب حقوق النشر أو المحاكم، مما يجعل الدفاع القانوني غير مضمون وضعيفا أمام النسخ أو التوزيع غير المصرح به. وبذلك تبقى هذه الحماية أقل بكثير من حقوق النشر المباشرة للمحتوى الناتج عن الذكاء الاصطناعي نفسه.

نحو حماية عادلة.. الاعتراف بالإبداع البشري في استخدام الذكاء الاصطناعي

في ضوء القيود القانونية الصارمة، من المرجح أن تسعى الشركات الكبرى نفسها إلى استخدام الذكاء الاصطناعي لإنتاج محتوى عالي الجودة بكلفة أقل، مما يستدعي إعادة النظر في مسألة حماية حقوق النشر لتشمل الأعمال التي تتضمن إسهاما بشريا فعالا.

في هذا السياق، من المهم التمييز بين الآلة والمبدع. فالذكاء الاصطناعي مجرد أداة لا تنتج شيئا من دون تدخل الإنسان. ومن هنا، ينبغي الاعتراف بالمستخدم البشري الذي يصوغ التوجيهات ويصمم العمليات كمؤلف حقيقي يستحق الحماية.

ورغم أن موقف مكتب حقوق النشر الحالي يستبعد هذا الاحتمال، فإن الفهم التقليدي بدأ يتغير مع تنامي الاهتمام بما يعرف بهندسة التوجيهات (Prompt Engineering)، وظهور دورات وأسواق رقمية متخصصة في هذا المجال.

فالتوجيهات لم تعد مجرد تعليمات عشوائية، بل أصبحت أدوات فعالة لصياغة مخرجات أصيلة. وإذا اعتُرف بهذه التوجيهات كأعمالٍ إبداعيّة قائمة بذاتها، فإن من المنطقي أيضا النظر في حماية المحتوى الناتج عنها، بوصفه تجسيدا لتلك الإسهامات البشرية.

كما أن المصلحة العامة تقتضي دعم هذا الاتجاه، لأن حماية الإبداع البشري في سياق الذكاء الاصطناعي ليست انحرافا عن أهداف القانون بل هي امتداد لها. ومن المتوقع أن تشهد السياسات تطورا في هذا الاتجاه، كما بدأ يحدث في بعض الدول مثل الصين التي منحت مؤخرا حماية قانونية لعمل أنشئ عبر الذكاء الاصطناعي اعتمادا على توجيهات إبداعيّة اعتُبرت أصيلة.

في ضوء القيود القانونية الصارمة من المرجح أن تسعى الشركات الكبرى نفسها إلى استخدام الذكاء الاصطناعي لإنتاج محتوى عالي الجودة بكلفة أقل (غيتي) الإبداع البشري في مواجهة الذكاء الاصطناعي.. من يبقى؟

أحد الآثار غير المقصودة لرفض حماية حقوق النشر لأعمال الذكاء الاصطناعي هو دفع شركات المحتوى إلى الحفاظ على التوظيف الحالي للعمال المبدعين. إذ إن عدم القدرة على حماية مخرجات الذكاء الاصطناعي من النسخ سيمنع الاعتماد عليه لإنتاج محتوى محمي، ويلزم الشركات بالاعتماد المستمر على كتّاب ومصممين ومحترفين.

لكن التوظيف الكامل والأجور المرتفعة للمبدعين ليسا هدفا لحقوق النشر، بل إن التحول في طبيعة العمل الإبداعي يستدعي حلولا خارج هذا الإطار. فالذكاء الاصطناعي يقترب تدريجيا من إنتاج محتوى يشبه ما يقدمه الصحفيون والمصممون وكتّاب السيناريو، مع إمكانية تقليل التكلفة وتعزيز الكفاءة.

ويتشارك مهندسو التوجيهات مع منشئي المحتوى في هذا التحول، كما أظهرت تجارب مثل إصدار "إل فوغليو" (Il Foglio) الإيطالية لعدد أنتج معظمه بالذكاء الاصطناعي، وإن كان قد خضع لمراجعة بشرية لاحقة، لكنه أظهر أن التغيير قادم لا محالة.

وإن كان الذكاء الاصطناعي لن يقصي العاملين المبدعين، لكن من يستخدمه سيتفوّق على من لا يفعل، كما في مجال الأشعة. وهذا التغير لن تنظمه حقوق النشر، بل سيكون نتاج صراع على مستقبل العمل.

نموذج محتمل لهذه الترتيبات المستقبلية هو الاتفاق الذي أُبرم عام 2023 بين رابطة الكتاب الأميركية وأستوديوهات هوليود، والذي ضمن للكتاب حقوقا كاملة في الأعمال التي يسهم فيها الذكاء الاصطناعي، من دون الاعتراف بالنموذج نفسه أنه "كاتب سيناريو".

غير أن تعميم هذا النجاح صعب، فغالبية العمال لا يتمتعون بحماية نقابية مماثلة. وتشير دراسات إلى أن الذكاء الاصطناعي التوليدي سيؤثر بعمق على العمال المعرفيين، بدءا من المبتدئين وصولا إلى الكتاب المحترفين، بمن في ذلك من يكتبون أعمدة الرأي أو التحليل السياسي.

ورغم احتمال المبالغة في وعود الذكاء الاصطناعي، فإن تحققت التوقعات لن يكون التحدي الحقيقي في حماية المحتوى، بل في إدارة تحول عميق في طبيعة العمل الإبداعي، في ظل غياب مؤسسات عامة أو خاصة قادرة على احتواء هذا التغير. وهنا، لن تكون حقوق النشر كافية، بل يجب البحث عن أدوات بديلة تخفف من آثار التحول، وتضمن أن تعود فوائده على الجميع.

بالنهاية، وبينما تتصارع التشريعات القديمة مع تحديات جديدة، يبقى السؤال المطروح: كيف نضمن حماية الإبداع البشري مع تمكين التكنولوجيا من خدمة المجتمع؟

الإجابة ليست في رفض التطور، بل في بناء أطر قانونية وأخلاقية تضمن العدالة وتكافؤ الفرص، ليس فقط في الغرب، بل أيضا في العالم العربي الذي بدأ اليوم بخطوات مهمة نحو احتضان هذه التكنولوجيا، والعمل على صياغة قوانين تنسجم مع خصوصياته الثقافية والاجتماعية.

إن مستقبل الإبداع يعتمد على قدرتنا في التكيف والتعاون بين الإنسان والآلة، فلا يمكن أن نكون مجرد متفرجين، بل شركاء فاعلين في رسم هذا المشهد الجديد الذي يحمل في طياته فرصا وتحديات تتطلب رؤية واضحة وشجاعة في صنع القرار.

مقالات مشابهة

  • حقوق النشر في عصر الذكاء الاصطناعي.. كيف تعيد التكنولوجيا صياغة قواعد الملكية الفكرية؟
  • الروبوت الزراعي يدخل جامعة بنها لمعالجة الآفات بالذكاء الاصطناعي
  • «دي إتش إل»: تجارب الشراء تتجه نحو الذكاء الاصطناعي والتواصل الاجتماعي في الإمارات
  • قائد شرطة عجمان يطلق منصة الذكاء الاصطناعي «AJP AI»
  • الذكاء الاصطناعي يتفوق في المجال الطبي
  • هواوي تعزّز إتاحة تعلّم الذكاء الاصطناعي مجانًا في مصر
  • سلوك نماذج الذكاء الاصطناعي تحت مجهر الخبراء
  • تحذير صارم: الذكاء الاصطناعي ينشر معلومات طبية مضللة
  • تقرير جديد: الذكاء الاصطناعي لا يحل محل العلاقات الإنسانية
  • الروبوتات البشرية تدخل عالم كرة القدم بـ «الذكاء الاصطناعي»