المحامية إيمان الحيدر: من يتحمل المسؤولية القانونية لأخطاء الذكاء الاصطناعي؟
تاريخ النشر: 2nd, August 2025 GMT
قالت المحامية إيمان الحيدر إن كل إنجاز تكنولوجي يؤدي إلى توسع الفجوة بين القدرة على اللحاق بالتقنية والتشريع، وبين ما يمكن للخوارزميات أن تفعله وما يمكن للقانون ملاحقته، ومع هذا الفراغ تتسرب الأخطاء ويصبح الذكاء الاصطناعي خصماً لا يمكن استجوابه ولا يمكن حبسه ولا حتى توجيه اللوم له. فقد أنجز الإنسان تقنية حديثة في العصر الحديث تسمى الذكاء الاصطناعي وفي هذه اللحظة فتح على نفسه باباً من الأسئلة الأخلاقية والقانونية التي تتحدى المفاهيم، ولم نعد أمام فاعلين بشريين تنسب إليهم الأفعال والخطايا بل أمام أنظمة تنتج قرارات تبدو مستقلة ولكنها تفتقر إلى الوعي والنية والضمير.
مخاطر قانونية متوقعة
وأوضحت أن أهم المخاطر القانونية المتوقعة في ظل استخدام الذكاء الاصطناعي والذي يشكل استخدامه تحديًا قانونيًا خطيراً ومتسارعاً، نظراً لتنوع المخاطر التي قد تترتب عليه. ومن أبرز هذه المخاطر انتهاك الخصوصية، حيث تقوم بعض الأنظمة بجمع البيانات وتحليلها دون موافقة صريحة من الأشخاص نفسهم،.
ومن التحديات مسألة المساءلة القانونية، إذ لا يزال من غير الواضح من يتحمل المسؤولية عند وقوع خطأ ناتج عن الذكاء الصناعي هل هو المطور أم المستخدم أم الشركة؟ يضاف إلى ذلك خطر انتهاك حقوق الملكية الفكرية، فضلاً عن التهديدات المتعلقة بالأمن السيبراني، مما يفتح المجال لاستخدام الذكاء الاصطناعي في أنشطة إجرامية أو تضليل إعلامي. وفي ضوء هذه التحديات، تبرز الحاجة إلى أطر تنظيمية عاجلة وواضحة، وإلى تطوير تقنيات تراعي مبادئ المساءلة واحترام حقوق الأفراد.
وأوصت لتقليص الفجوة بإصدار قانون خاص بالذكاء الاصطناعي: يتضمن تعريفًا واضحًا، وتحديد المسؤوليات، وتنظيم استخدام البيانات، والالتزام بالشفافية والرقابة، وإنشاء هيئة وطنية للذكاء الاصطناعي والأخلاقيات التقنية تتولى وضع المعايير، ومراقبة الالتزام، ومنح التراخيص للتطبيقات عالية المخاطر.
تطوير أطر تنظيمية
و تبرز أهمية الدور الذي يجب أن تقوم به «الوكالة الوطنية للأمن السيبراني» في دولة قطر، ليس فقط في حماية البنية التحتية الرقمية، بل أيضاً في التعاون في تطوير أطر تنظيمية وتشريعية تواكب المخاطر القانونية الجديدة الناتجة عن تقنيات الذكاء الاصطناعي. ووضع سياسات استباقية، وتوجيه كل المؤسسات نحو استخدام مسؤول وآمن للتقنيات، بما يضمن حماية الحقوق الأساسية وتعزيز الثقة في البيئة الرقمية، وتحديث قواعد المسؤولية المدنية والجنائية بإدراج قواعد جديدة تتناسب مع طبيعة الذكاء الاصطناعي، خصوصًا فيما يتعلق بالإثبات والتسبب غير المباشر في الضرر، والتدريب القضائي والتشريعي بهدف رفع كفاءة القضاة والمشرعين وتدريبهم لفهم الجوانب التقنية للذكاء الاصطناعي .
ومن التوصيات التعاون الإقليمي والدولي: الاستفادة من المبادرات الدولية، وتطوير اتفاقيات خليجية مشتركة لتنظيم الذكاء الاصطناعي.
واقترحت لمعالجة الأخطاء المتوقعة للذكاء الاصطناعي وضع تعريف قانوني موحد للذكاء الاصطناعي وتصنيف الأنظمة حسب خطورتها، ومن الضروري أن يبدأ أي تشريع بتحديد ماهية الذكاء الاصطناعي، وأنواعه، ومدى استقلاليته، وذلك بهدف تحديد نطاق تطبيق القانون بوضوح.
كما يجب على القانون أن يصنّف الأنظمة الذكية وفقًا لمستوى الخطورة (منخفض – متوسط – مرتفع)، بحيث تفرض ضوابط أكثر صرامة على التطبيقات عالية الخطورة، والأهم ضبط المسؤولية عند وقوع أخطاء في الذكاء الاصطناعي، ويجب أن يوضح القانون بشكل بسيط ودقيق من هو المسؤول قانونيًا عند حدوث خطأ في أنظمة الذكاء الاصطناعي، ؟ .
كما يمكن فرض آلية تأمين إلزامية على الشركات المطورة أو المشغلة للأنظمة الذكية، لضمان تعويض المتضررين من أخطاء الذكاء الاصطناعي، على غرار تأمين السيارات، ويجب مواءمة قانون الذكاء الاصطناعي مع قانون حماية البيانات الشخصية، بحيث لا تستخدم الأنظمة الذكية البيانات بشكل ينتهك الخصوصية أو يؤدي إلى التمييز غير المشروع.
وقالت: لتنفيذ إطار قانوني فعال للذكاء الاصطناعي، يُقترح تشكيل لجنة وطنية تضم خبراء قانونيين وتقنيين وممثلين عن القطاعين العام والخاص لصياغة التشريع المناسب، كما يمكن إنشاء «صندوق للمخاطر التكنولوجية» لتعويض المتضررين، خصوصًا في الحالات التي يصعب فيها تحديد المسؤول، ويُستحسن تحديث المناهج القانونية في الجامعات، وتنظيم برامج تدريبية للقضاة والمحامين لتعزيز فهمهم للتقنيات الحديثة.
الشرق القطرية
إنضم لقناة النيلين على واتسابالمصدر: موقع النيلين
كلمات دلالية: الذکاء الاصطناعی للذکاء الاصطناعی
إقرأ أيضاً:
هل يشجع الذكاء الاصطناعي البشر على الغش؟
أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.
وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.
اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of listوشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).
وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.
وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.
وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".
ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.
اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".
إعلانوأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.
وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.
وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.
وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.