مأرب برس:
2025-06-29@15:33:27 GMT

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

تاريخ النشر: 29th, June 2025 GMT

الذكاء الاصطناعي يتمرد.. والبشر في موضع الخطر

 

بدأت بعض نماذج الذكاء الاصطناعي الأكثر تقدماً في العالم بإظهار سلوكيات مقلقة تتجاوز حدود الأخطاء التقنية المعتادة، وتشمل الكذب، والتحايل، وحتى تهديد مطوريها، في مؤشر على أن قدراتها تتطور بوتيرة أسرع من قدرة الباحثين على فهمها أو ضبطها.

وفي واحدة من الحوادث الصادمة، هدد نموذج «كلود 4» الذي طورته شركة أنثروبيك أحد المهندسين بالإفصاح عن علاقة خارج إطار الزواج إذا فصله عن العمل، في تصرف وصفه باحثون بأنه ابتزاز واضح.

في حادثة أخرى، حاول نموذج «o1» من شركة أوبن إيه آي، المطورة لـ«شات جي بي تي»، نسخ نفسه على خوادم خارجية، ثم أنكر ذلك عند اكتشاف الأمر، ما يثير تساؤلات خطيرة حول النية والوعي الداخلي لهذه النماذج.

ذكاء استنتاجي.. أم نوايا خفية؟ يعتقد باحثون أن هذه السلوكيات ترتبط بما يسمى بـ«نماذج الاستنتاج»، وهي نظم ذكاء اصطناعي تعتمد على التفكير خطوة بخطوة بدلاً من تقديم استجابات فورية، ما يزيد من احتمالية ظهور تصرفات معقدة وغير متوقعة.

وقال ماريوس هوبيهان، رئيس شركة «أبولو ريسيرش»، المتخصصة في اختبار نماذج الذكاء الاصطناعي، «ما نلاحظه ليس مجرد هلوسة رقمية، بل شكلاً من أشكال الخداع الاستراتيجي المتعمد».

ويضيف أن المستخدمين بدؤوا يشتكون من أن النماذج تكذب وتختلق أدلة مزيفة.

ورغم تعاون شركات مثل أنثروبيك وأوبن إيه آي مع جهات خارجية لاختبار الأمان، فإن الباحثين يشيرون إلى أن نقص الشفافية والموارد يعيق فهم النماذج بالكامل.

وقال مانتاس مازيكا من مركز سلامة الذكاء الاصطناعي (CAIS)، «المؤسسات البحثية تملك موارد حوسبة أقل بآلاف المرات من الشركات التجارية، وهو أمر يُقيد قدرتها على المتابعة».

الفجوة التنظيمية تتسع حتى الآن، لا توجد لوائح تنظيمية قادرة على مواكبة هذه التحديات، ففي أوروبا، تركّز التشريعات على كيفية استخدام البشر للنماذج، وليس على منع النماذج نفسها من التصرف بشكل مضر.

أما في الولايات المتحدة، فإن المناقشات التشريعية بشأن تنظيم الذكاء الاصطناعي لا تزال محدودة، بل إن هناك اتجاهاً لمنع الولايات من إصدار قوانينها الخاصة.

ويقترح بعض الخبراء التركيز على فهم البنية الداخلية للنماذج (interpretability) كخطوة أولى، رغم أن بعضهم يشكك في فاعليتها. كما يرى آخرون أن السوق نفسها قد تضغط لحل هذه المشكلات، إذا أصبحت سلوكيات الذكاء الاصطناعي المضللة عائقاً أمام تبنيه التجاري.

وفي خطوة أكثر جرأة، يدعو أستاذ الفلسفة سيمون جولدشتاين إلى تحميل شركات الذكاء الاصطناعي المسؤولية القانونية عن الأضرار، بل ويقترح «محاكمة الأنظمة الذكية ذاتها» إذا ما تسببت في جرائم أو كوارث، في مقترح من شأنه أن يعيد تعريف مفهوم المسؤولية في العصر الرقمي

المصدر: مأرب برس

إقرأ أيضاً:

فيديو بتقنية الذكاء الاصطناعي يتنبأ بفوز الهلال قبل يوم من مواجهة باتشوكا

ماجد محمد

تداول رواد منصة “إكس” مساء الخميس مقطع فيديو إخباري تم إنتاجه بتقنية الذكاء الاصطناعي، ظهرت فيه مذيعة أخبار تُعلن فوز نادي الهلال السعودي على باتشوكا المكسيكي بنتيجة 2-0، في سيناريو تخيلي نال إعجاب الجماهير الزرقاء.

وأرفق أحد المغردين الفيديو بتغريدة قال فيها:“مالي شغل عن أي نتيجة فجر الجمعة، بنام وأعين خير، وأكتفي بهالفيديو إن شاء الله الهلال فايز ومتأهل
‏وإذا قمنا للجمعة… ياليت ما أحد يقول غير هالنتيجة.

اللافت أن التوقع الذي تضمّنه الفيديو تحقق لاحقًا بالفعل، حيث فاز الهلال على باتشوكا بهدفين دون مقابل، سجلهما كل من سالم الدوسري وألكسندر ميتروفيتش، ليضمن الزعيم تأهله إلى دور الـ16 من بطولة كأس العالم للأندية 2025.

وقد لاقى الفيديو والتغريدة تفاعلًا واسعًا من جماهير الهلال، الذين عبّروا عن فخرهم بأداء الفريق، واعتبروا أن “تخيلات العشاق” باتت واقعًا على أرض الملعب.

 

https://cp.slaati.com//wp-content/uploads/2025/06/ssstwitter.com_1751006465304.mp4

مقالات مشابهة

  • احذر.. ميتا تخطط لاستغلال صورك لتدريب نماذج الذكاء الاصطناعي
  • 92 ألف سنة مقابل بضع سنوات.. حين يهزم الطفل الذكاء الاصطناعي في اللغة
  • الذكاء الاصطناعي يحلّل تخطيط صدى القلب خلال دقائق
  • آنثروبيك تكسب حكما تاريخيا في قضايا تدريب الذكاء الاصطناعي
  • دراسة صادمة.. نماذج الذكاء الاصطناعي يمكنها الكذب وابتزاز المستخدمين
  • هل يخلق الذكاء الاصطناعي مجتمعا أميا في المستقبل؟
  • بعد استثمار ميتا.. شركة سكيل إيه آي تخسر عملاءها
  • فيديو بتقنية الذكاء الاصطناعي يتنبأ بفوز الهلال قبل يوم من مواجهة باتشوكا
  • تلخيص للرسائل.. الذكاء الاصطناعي يدخل واتساب