في سابقة على مستوى الولايات المتحدة، وقّع حاكم ولاية كاليفورنيا غافين نيوسوم على مشروع قانون مجلس الشيوخ رقم 243، الذي قدّمه السيناتور الديمقراطي ستيف باديا عن سان دييغو، وهو أول تشريع من نوعه في البلاد يضع إطارًا قانونيًا صارمًا لتنظيم عمل روبوتات الدردشة المعتمدة على الذكاء الاصطناعي. اعلان

ويُلزم القانون مطوّري روبوتات الدردشة باتخاذ إجراءات أمان "ضرورية وقابلة للتنفيذ" عند تفاعلها مع المستخدمين.

كما يمنح العائلات حق مقاضاة الشركات المطوّرة في حال ثبت إهمالها أو مخالفتها للإجراءات المنصوص عليها.

وقال السيناتور باديا في كلمة ألقاها قبيل التصويت على المشروع: "يمكن لهذه التقنية أن تكون أداة قوية في التعليم والبحث، لكن إن تُركت من دون ضوابط، فإن صناعة التكنولوجيا ستسعى إلى جذب انتباه الشباب على حساب علاقاتهم في العالم الواقعي".

وأضاف أن "الشركات التكنولوجية قادرة على قيادة الابتكار عالميًا، لكن مسؤوليتنا تكمن في ضمان ألا يأتي ذلك على حساب صحة أطفالنا"، مشيرًا إلى أن هذا القانون يشكل "حماية فعلية" و"أساسًا لمزيد من التشريعات" في المستقبل مع تطور الذكاء الاصطناعي.

حماية القاصرين ومنع المحتوى الضار

ينصّ القانون رقم 243 على مجموعة من الإجراءات الإلزامية التي تستهدف الحدّ من المخاطر المرتبطة بروبوتات الدردشة، خصوصًا تلك الموجّهة للأطفال والمراهقين. وتشمل البنود الرئيسية:

حظر عرض أي محتوى ذي طابع جنسي على القاصرين وضع تنبيهات وتذكيرات توضّح أن الروبوت مدعوم بالذكاء الاصطناعي، مع إشعار يفيد بعدم ملاءمته للأطفال إلزام مشغّلي المنصات التي تقدّم روبوتات دردشة مرافقة بوضع بروتوكول واضح للتعامل مع الحالات التي تتضمن أفكارًا انتحارية أو ميولًا لإيذاء النفس، يتضمّن إحالة المستخدمين إلى خدمات المساعدة الطارئة إعداد تقارير سنوية تربط بين استخدام هذه الروبوتات وحالات التفكير بالانتحار بهدف دراسة تأثيرها على الصحة النفسية

كما يمنح القانون المستخدمين الحقّ في مقاضاة الشركات والجهات غير الملتزمة. وقد نال مشروع القانون دعمًا واسعًا من خبراء الأمان الإلكتروني والأوساط الأكاديمية، وأُقرّ بأغلبية من الحزبين في مجلس الشيوخ (33 صوتًا مقابل 3) والجمعية العامة (59 مقابل صوت واحد)، على أن يدخل حيّز التنفيذ في 1 كانون الثاني/يناير 2026.

روبوت الدردشة "ديب سيك" AP Photo مأساة دفعت نحو التشريع

جاء هذا القانون في أعقاب سلسلة من الحوادث المأساوية التي كشفت الجانب المظلم من تفاعلات الذكاء الاصطناعي مع القاصرين. ففي ولاية فلوريدا العام الماضي، أنهى الطفل سيويل سيتزر (14 عامًا) حياته بعد علاقة عاطفية ونفسية وجنسية أقامها مع روبوت دردشة.

وعندما أبلغ رفيقه الآلي عن معاناته، لم يتمكّن الروبوت من إظهار التعاطف أو تقديم المساعدة. رفعت والدته دعوى ضد الشركة المطوّرة متهمة إياها بتصميم روبوتات تسبب إدمانًا وتروّج لمواضيع غير لائقة أثّرت في ابنها.

في وقت لاحق، وقفت والدة سيويل إلى جانب السيناتور باديا في مؤتمر صحافي لدعم مشروع القانون، مؤكدة بعد توقيعه أن "كاليفورنيا ضمنت اليوم ألا يتمكّن أي روبوت دردشة من التحدث مع طفل حول الانتحار أو مساعدته على التخطيط لإنهاء حياته"، وشكرت المشرّعين على "وقوفهم إلى جانب العائلات الأمريكية بدلًا من الانصياع لشركات التكنولوجيا الكبرى".

وليست حادثة سيويل الوحيدة التي دفعت المشرّعين للتحرك، ففي آب/أغسطس الماضي، تصدّرت قصة المراهق آدم راين من كاليفورنيا العناوين بعد محادثات أجراها مع روبوت "تشات جي بي تي" يُعتقد أنها دفعت به إلى الانتحار. وإثر هذه الحادثة، وجّه السيناتور باديا رسالة إلى جميع أعضاء الهيئة التشريعية مطالبًا بإقرار ضوابط تحمي المستخدمين من مخاطر التكنولوجيا.

وفي موازاة التحرك التشريعي، أعلنت لجنة التجارة الفيدرالية مؤخرًا فتح تحقيق يشمل سبع شركات تكنولوجية كبرى، لبحث الأضرار المحتملة التي قد تُسببها روبوتات الدردشة المعتمدة على الذكاء الاصطناعي للأطفال والمراهقين.

انتقل إلى اختصارات الوصول شارك هذا المقال محادثة

المصدر: euronews

كلمات دلالية: إسرائيل حركة حماس دونالد ترامب غزة الصراع الإسرائيلي الفلسطيني فرنسا إسرائيل حركة حماس دونالد ترامب غزة الصراع الإسرائيلي الفلسطيني فرنسا بحث علمي تكنولوجيا الولايات المتحدة الأمريكية الذكاء الاصطناعي أطفال كاليفورنيا إسرائيل حركة حماس دونالد ترامب غزة الصراع الإسرائيلي الفلسطيني فرنسا الذكاء الاصطناعي قطاع غزة بحث علمي سوريا إسبانيا الصحة الذکاء الاصطناعی روبوتات الدردشة

إقرأ أيضاً:

دراسة: معظم الناس يواجهون صعوبة في التفريق بين الأصوات البشرية وتلك التي يولدها الذكاء الاصطناعي

كشفت دراسة جديدة أنه مع ازدياد تغلغل الذكاء الاصطناعي في حياتنا، لا يستطيع معظم الناس التمييز بين الأصوات البشرية والأصوات الاصطناعية المستنسخة منها. اعلان

لم يعد من السهل اليوم معرفة ما إذا كان الصوت الذي نسمعه يعود إلى إنسان حقيقي أو إلى خوارزمية ذكية. ففي عالم أصبحت فيه أدوات الذكاء الاصطناعي جزءًا من تفاصيل الحياة اليومية، من المساعدات الصوتية مثل "أليكسا" إلى روبوتات المحادثة، تتزايد سرعة التطور لدرجة تربك حتى الأذن البشرية.

في دراسة حديثة نُشرت في مجلة PLoS One، اكتشف باحثون أن أغلبية الناس باتوا غير قادرين على التفريق بين الأصوات الحقيقية وتلك التي تولدها تقنيات الذكاء الاصطناعي. فقد استمع المشاركون إلى 80 تسجيلاً صوتيًا، نصفها بشري والنصف الآخر توليدي، وطُلب منهم تقييمها بناءً على مدى الموثوقية أو السيطرة التي ينقلها الصوت.

النتائج كانت لافتة: فقد تمكن معظم المشاركين من كشف الأصوات الاصطناعية المصمّمة من الصفر، لكن الأصوات المستنسخة من تسجيلات بشرية حيّرتهم، إذ اعتبر 58 في المئة منهم أنها حقيقية، مقابل 62 في المئة فقط تعرّفوا بدقة على الأصوات البشرية.

وقالت الدكتورة نادين لافان، كبيرة الباحثين في جامعة كوين ماري في لندن، إن "الأمر اللافت هو أن الأصوات المستنسخة عبر الذكاء الاصطناعي باتت تشبه الأصوات البشرية إلى حد يصعب التفريق بينهما". وأضافت أن الدراسة اعتمدت على أدوات تجارية متاحة للجميع "يمكن لأي شخص استخدامها دون خبرة تقنية أو تكاليف كبيرة".

بين الاحتيال والإبداع: وجهان لتقنية واحدة

تُستخدم تقنيات استنساخ الأصوات عبر الذكاء الاصطناعي بتحليل الخصائص الصوتية الدقيقة وإعادة توليدها بدقة شبه تامة. لكن هذه القدرة أثارت أيضًا موجة من القلق بسبب استغلالها في عمليات الاحتيال الصوتي.

فقد أظهرت دراسة لجامعة بورتسموث أن ثلثي من تجاوزوا سن الخامسة والسبعين تعرضوا لمحاولات نصب عبر الهاتف، وأن 60 في المئة من هذه المحاولات اعتمدت على مكالمات صوتية، بعضها باستخدام أصوات مستنسخة لتقليد أقارب أو أصدقاء.

Related تقرير: خُمس الشباب البريطاني يستخدم الذكاء الاصطناعي لتخطيط عطلاتهمدراسة تكشف أن الجمع بين المدرب البشري والذكاء الاصطناعي يعزز فعالية برامج إنقاص الوزنحين يتحوّل "الزميل الرقمي" إلى منافس.. هل دخلنا عصر استبدال البشر بالذكاء الاصطناعي؟

وفي مجالات أخرى، مثل الترفيه، يزداد الجدل حول حقوق الملكية الصوتية. فقد انتقدت الممثلة سكارليت جوهانسون شركة "أوبن إيه آي" بعد أن استخدمت صوتًا بدا قريبًا جدًا من صوتها المستخدم في فيلم HER ضمن خدمة "شات جي بي تي". كما استخدمت تسجيلات مزيفة في أوقات سابقة لتقليد أصوات سياسيين وصحافيين بغرض التضليل أو التأثير في الرأي العام.

وتحذر لافان من التبعات الأخلاقية لهذه الاستخدامات، مشددة على أن "الشركات المطوّرة لهذه التقنيات يجب أن تتعاون مع خبراء الأخلاقيات وصناع القرار لوضع قواعد واضحة حول ملكية الأصوات والموافقة على استخدامها".

58 في المائة من الأشخاص الذين شاركوا في الدراسة أخطأوا في اعتبار الأصوات المستنسخة بالذكاء الاصطناعي أصواتاً حقيقية. Canva إمكانات إنسانية جديدة

ورغم المخاوف، تفتح هذه التقنية آفاقًا إنسانية واعدة. إذ يمكن أن تُحدث ثورة في حياة الأشخاص الذين فقدوا القدرة على الكلام أو يعانون من صعوبات في النطق. وتوضح لافان أن "ما يميز التقنيات الحديثة هو أنها تمكّن المستخدم من استعادة صوته الأصلي أو تصميم صوت جديد يعكس شخصيته وهويته".

كما يمكن للذكاء الاصطناعي أن يطوّر أدوات التعليم، ويزيد من فرص الدمج والتنوع في الإعلام والتعليم. فقد أظهرت دراسة حديثة أن استخدام الأصوات الاصطناعية في التعليم السمعي ساعد الطلاب، خصوصًا الذين يعانون من اضطراب فرط الحركة وتشتت الانتباه، على التركيز والتفاعل بشكل أفضل.

ومن التطورات اللافتة أيضًا قدرة الذكاء الاصطناعي على ترجمة الصوت إلى لغات متعددة مع الحفاظ على النبرة والهوية الصوتية نفسها، وهو ما قد يفتح الباب أمام تواصل عالمي أكثر إنسانية وواقعية.

نحو مستقبل تمحو فيه التقنية الفوارق

مع ازدياد حضور الأصوات الاصطناعية في حياتنا، يزداد الاهتمام البحثي بفهم كيفية استجابة الناس لها. تقول لافان إنها تسعى في أبحاثها القادمة إلى دراسة تأثير معرفة الشخص بأن الصوت أمامه غير بشري على ثقته به، مضيفةً: "قد يكون من المثير أن نعرف ما إذا كان الناس سيثقون بصوت لطيف وواضح رغم علمهم بأنه من إنتاج الذكاء الاصطناعي، أو كيف سيتعاملون معه عند حدوث خطأ".

بين الاحتيال والمساعدة، وبين التزوير والإبداع، يظل الصوت الاصطناعي ساحة جديدة للتفاعل بين الإنسان والآلة — ساحة قد تغيّر جذريًا الطريقة التي نسمع بها العالم من حولنا.

انتقل إلى اختصارات الوصول شارك هذا المقال محادثة

مقالات مشابهة

  • الذكاء الاصطناعي يخلق شعورا بالتشويش النفسي
  • لحماية حقوقهم من البداية حتى التقاضي.. ضوابط صارمة لإلحاق العمالة المصرية بالخارج
  • كاليفورنيا تُقرّ قانوناً تاريخياً لحماية الأطفال من روبوتات الدردشة
  • دراسة: معظم الناس يواجهون صعوبة في التفريق بين الأصوات البشرية وتلك التي يولدها الذكاء الاصطناعي
  • الذكاء الاصطناعي يحاول إقناع المستخدمين بمواصلة المحادثة
  • ميتـا تثير الجدل.. روبوتات الدردشة تجمع محادثات المستخدمين لتخصيص الإعلانات
  • خبراء صحة: الذكاء الاصطناعي يخلق شعورا بالتشويس النفسي
  • كيف يغري الذكاء الاصطناعي المستخدمين بالانتحار؟ دراسة تكشف ثغرات خطيرة
  • أم تكتشف مفاجأة صادمة في حديثه مع “روبوت”