فاطمة البودي: ندرس إضافة بند لحماية المؤلف من انتهاكات الذكاء الاصطناعي
تاريخ النشر: 15th, August 2023 GMT
قالت فاطمة البودي، مدير دار العين للنشر: «لم أكن أتصور أن يصل التقدم التكنولوجي إلى هذه الدرجة حتى رأينا ان هناك حفلات استيعادية لمطربين راحلين كعبدالحليم حافظ وأم كلثوم باستخدام الذكاء الاصطناعي».
وتابعت: «ووصل ايضا بأن هناك مذيعة بالذكاء الاصطناعي فلفت نظري إعلان ممول على وسائل التواصل الاجتماعي «فيسبوك» من دار نشر معينة صيغته، كالتالي: «عايز تبقى مؤلف في أربع خطوات استخدم الذكاء الاصطناعي وتعطيه إطار الموضوع المطلوب وتعطيه بعض المشاعر وفي النهاية استخراج منتج ونشره عبر هذه المنصة»، ويعد هذا الأمر إفسادا للذوق العام أو تشريعا لافساد الذوق العام، فعلى المستوى الشخصي لا أستطيع أن أنشر أي منتج بهذا الشكل، فعلى سبيل المثال عندما اشتم رائحة الاستعانة بـ«جوجل» في الترجمة فاضطر أرجع للمترجم الأساسي وإبلاغه أن هذه الترجمة من «جوجل»، فهذا الموضوع خطير جدًا، وتزداد خطورته في أن يتجاوز ويصل الى انتحال شخصيات وصفات وأسماء فنحن قادمون على عالم لن نسطيع أن نتنبأ بما سيحدث مُستقبلًا، ولن توجد حقوق ملكية، وأدرس مع المستشار القانوني للدار إضافة بند لصالح المؤلف يحميه من انتهاكات الذكاء الاصطناعي حتى لا يقتبس أحد من المؤلف ويقول إن هذا من الذكاء الاصطناعي.
وأضافت «البودي»، في تصريحات خاصة لـ"البوبة نيوز": أنها على المستوى الشخصي لا تُحبذ الذكاء الاصطناعي وتحب التعامل مع العقل البشرى، حتى وإن كان ذلك الأمر مُكلف أكثر من الذكاء الاصطناعي أو أن الذكاء الاصطناعي سيوفر في كثير من عمليات النشر كالتصميم والتصحيح وغيرها من الأدوات التي تتم معالجتها قبل النشر فلن أستغنى عن المحرر في مقابل الذكاء الاصطناعي ، ولا أعرف القادم بعدي أو الأجيال التالية كيف ستتعامل مع هذا الوضع.
المصدر: البوابة نيوز
كلمات دلالية: الذكاء الاصطناعي دور النشر حقوق الملكية الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر
بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.
وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.
في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.
ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.
وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».
ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.
ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.
وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».
الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.
أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.
ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.
وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي