تخيّل ولعب ونجح.. هكذا هزم دريمر تحديات ماينكرافت!
تاريخ النشر: 4th, April 2025 GMT
في إنجاز جديد للذكاء الاصطناعي، تمكن نظام طوّرته شركة "ديب مايند" التابعة لغوغل من جمع الألماس في لعبة "ماينكرافت" الشهيرة دون أن يتعلم مسبقًا كيفية اللعب.
النظام، الذي يُعرف باسم Dreamer، حقق هذا الهدف الصعب عبر تخيّل النتائج المستقبلية لقراراته، في خطوة تُعتبر تقدمًا مهمًا نحو تطوير ذكاء اصطناعي عام يمكنه التعلّم والتكيّف في بيئات جديدة، وفقاً لمجلة Nature العلمية.
اقرأ أيضاً.. الذكاء الاصطناعي يتقن الخداع!
يقول الباحث دانجار هافنر من "ديب مايند" إن النظام لا يعتمد على تعليمات بشرية، بل يبني نموذجًا ذهنيًا للعالم المحيط به ويستخدمه لتوقّع العواقب المحتملة لأفعاله، مما يسمح له بتحسين أدائه تدريجيًا. ويُعد جمع الألماس في "ماينكرافت" تحديًا معقدًا يتطلب سلسلة طويلة من المهام، مثل جمع الخشب وصناعة الأدوات المناسبة والحفر في أعماق الأرض.
على عكس المحاولات السابقة التي استندت إلى تسجيلات للّعب البشري، استخدم Dreamer تقنية التعلم المعزز التي تعتمد على التجربة والخطأ. وتمكّن النظام من استكشاف بيئة اللعبة والتعلّم منها بمفرده، وهو ما اعتُبر إنجازًا مهمًا في مسيرة الذكاء الاصطناعي.
ويشير هافنر إلى أن هذه التقنية قد تفتح المجال أمام تطوير روبوتات تتعلّم التفاعل مع العالم الحقيقي، حيث يصعب تطبيق أساليب التجربة والخطأ بشكل مباشر. ورغم أن اختبار جمع الألماس لم يكن الهدف الأساسي من تطوير Dreamer، إلا أنه شكّل اختبارًا مثاليًا لقدرات النظام على التعلّم الذاتي من الصفر.
إسلام العبادي(أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: ألعاب الفيديو الذكاء الاصطناعي الألعاب الإلكترونية
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.