الذكاء الإصطناعي يتجاوز البشر في التعلم
تاريخ النشر: 1st, June 2025 GMT
في تطور لافت بمجال الذكاء الاصطناعي التفاعلي، لم يعد البشر يحتكرون تدريب الروبوتات الاجتماعية على التفاعل بفعالية. حيث أعلن فريق بحثي مشترك من جامعتي سري البريطانية وهامبورغ في ألمانيا عن ابتكار آلية جديدة ماتزال في المراحل الأولية تمكّن الروبوتات الاجتماعية من التعلم والتفاعل دون الحاجة إلى تدخل بشري مباشر.
وقد طورت الدراسة، التي ستعرض في المؤتمر الدولي حول الروبوتات والأتمتة الذي ينظمه معهد مهندسي الكهرباء والإلكترونيات في الولايات المتحدة لعام 2025، الذي يُعد من أبرز الفعاليات الأكاديمية في هذا المجال على مستوى العالم، طريقة محاكاة جديدة تسمح بتدريب الروبوتات الاجتماعية واختبار أدائها دون الحاجة إلى تدخل بشري، ما يسرع من وتيرة الأبحاث ويخفض التكاليف، مع المحافظة على دقة النتائج.
وقد استخدم الباحثون روبوتا بشري الشكل لتطوير نموذج ديناميكي قادر على توقع مسار نظرة الإنسان في السياقات الاجتماعية، وهو ما يُعرف بتنبؤ مسار النظرة «Scanpath Prediction».
محاكاة حركات العين
اختبر الباحثون النموذج باستخدام مجموعتين من البيانات المفتوحة، وأظهر الروبوت قدرة عالية على محاكاة حركات العين البشرية بدقة وواقعية، ما يعد مؤشرا على تطور الذكاء الاجتماعي في هذه الأنظمة.
من جانبها، قالت الدكتورة دي فو، المشاركة الرئيسة في الدراسة والمحاضرة في علم الأعصاب المعرفي والمتخصصة في التفاعل بين الإنسان والروبوت في جامعة سري: «تتيح طريقتنا للروبوت أن يركز على ما ينبغي أن يجذب انتباه الإنسان، دون الحاجة إلى مراقبة بشرية مباشرة. والأمر الأكثر إثارة هو أن النموذج يحافظ على دقته حتى في بيئات غير متوقعة ومليئة بالضوضاء، مما يجعله أداة قوية وواعدة للتطبيقات العملية في مجالات التعليم، والرعاية الصحية، وخدمة العملاء».
وتُعد الروبوتات الاجتماعية نوعًا خاصًا من الروبوتات المصممة للتفاعل مع البشر من خلال الكلام، والإيماءات، وتعبيرات الوجه، مما يجعلها ملائمة لبيئات مثل الفصول الدراسية، العيادات الطبية، والمتاجر. من الأمثلة الشهيرة: روبوت «Pepper»، الذي يُستخدم كمساعد بيع في المتاجر، و«Paro»، الروبوت العلاجي المخصص لمرضى الخرف.
تقييم للنموذج
في مرحلة التطبيق، أجرى الفريق البحثي مقارنة بعرض خرائط تبين أولويات نظرات الإنسان على شاشة، بتوقعات الروبوت داخل بيئة محاكاة. هذا التوافق سمح بتقييم مباشر للنموذج في ظروف تحاكي الواقع، دون الحاجة إلى إجراء تجارب فعلية مكلفة أو طويلة الأمد بين البشر والروبوتات.
وأضافت الدكتورة دي فو: «استخدام المحاكاة بدلاً من التجارب البشرية المبكرة يُعد خطوة محورية في مجال الروبوتات الاجتماعية. أصبح بإمكاننا الآن اختبار قدرة الروبوت على فهم الإنسان والاستجابة له بدقة وسرعة. طموحنا القادم هو تطبيق هذا النموذج في مواقف اجتماعية أكثر تعقيدًا، ومع روبوتات من أنواع متعددة».
ويبرز هذا البحث التوجه المتصاعد نحو الاستقلالية في الذكاء الاصطناعي الاجتماعي، بحيث يصبح الروبوت قادرا على التعلم والفهم في بيئات واقعية دون الاعتماد الكلي على الإنسان في كل مرحلة من مراحل التطوير.
مع توسع هذه الابتكارات، يبدو أن العلاقة بين الإنسان والآلة تتهيأ لمرحلة جديدة، تحاكي التفاعل البشري بشكل غير مسبوق، وتفتح آفاقا لتطبيقات أوسع في حياتنا اليومية.
أسامة عثمان (أبوظبي)
المصدر: صحيفة الاتحاد
كلمات دلالية: الذكاء الإصطناعي الذكاء الاجتماعي الروبوتات ألمانيا بريطانيا دون الحاجة إلى
إقرأ أيضاً:
الحرب والذكاء الاصطناعي
في عالمنا الراهن، لم تعد الحروب الطويلة -لا الخاطفة- تعتمد في المقام الأول على الطائرات الحربية أو المقاتلات التي يقودها مقاتل طيار، وهي الطائرات التي تشكل القوة الضاربة في أي جيش قوي، وإنما أصبحت تعتمد على المسيرات أو الطائرات من دون طيار، وهي أبرز الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تُستخدم في الحروب الآن على نطاق واسع؛ لأنها سهلة التصنيع ورخيصة التكلفة إلى حد بعيد. ولكن استخدام مثل هذه الأسلحة أو الآلات القاتلة في الحروب يثير أسئلة فلسفية عديدة تتعلق بفلسفة الأخلاق، بل حتى بنظرية المعرفة ذاتها، وهذا ما أهتم بالتنويه إليه في هذا المقال.
من المعلوم أن هذه الأسلحة تكون قابلة للخطأ على أنحاء عديدة مهما كانت دقتها: فهي مبرمجة على إحداثيات وخوارزميات يمكن أن تصيب أهدافًا مدنية، ومن ثم لا تكون قادرة على التمييز بين المدنيين والعسكريين، وهي بذلك تخالف المبادئ الأخلاقية للحرب التي أقرتها القوانين الدولية. وربما يجادل بعض المفتونين بالقدرات الهائلة للتكنولوجيا بالقول بأن هناك أدلة كثيرة على القدرة اللامحدودة لأسلحة الذكاء الاصطناعي على إصابة أهدافها بدقة؛ ولكن رأي هؤلاء غافل عن أن الآلة العسكرية المبرمجة وفقًا للذكاء الاصطناعي يمكن أن تكون متحيزة؛ وبالتالي يمكن أن تتخذ قرارات نهائية خاطئة! وربما يدعو هذا القول إلى الدهشة؛ لأننا اعتدنا أن ننسب التحيز أو عدم التحيز إلى البشر وليس إلى الآلات.
ولكن هذا القول لا ينبغي أن يكون مدعاة لدهشتنا؛ ببساطة لأن هذه الآلات تنحاز وفقًا لانحياز البشر، أعني وفقًا لانحياز البيانات التي زودها بها البشر. وعلى سبيل المثال لا الحصر يمكن أن تكون هذه البيانات متحيزة ضد جماعة بعينها أو جنس أو عرق معين؛ ولذلك تختلف هذه البيانات بحسب الدول المصنعة لهذه الآلات، وبحسب الحروب التي تخوضها في مرحلة معينة ضد دولة أو دول بعينها. حقًّا إن هذه الآلات قد تستخدم أنظمة مبرمجة آليًّا بطريقة جيدة لاتخاذ قرارات ذاتية، ولكن قرارتها تظل عُرضة للخطأ، بل للأخطاء المميتة وغير القابلة للتدارُك. وربما يجادل بعض آخر بالدفاع عن إمكانية أخطاء هذه الآلات بالقول بأن هذه الأخطاء تُوجد أيضًا لدى البشر؛ فلماذا نتحفظ على نجاعة آلات وأسلحة الذكاء الاصطناعي في هذا الصدد. غير أن هذا القول غافل أيضًا عن أن نتائج القرارات الخاطئة للذكاء الاصطناعي هنا تكون كارثية بشكل يفوق كثيرًا أخطاء البشر؛ لأن هذه القرارات تكون نهائية وغير قابلة للمراجعة أو التصحيح أو التعديل.
هذا كله له صلة وثيقة بموضوع أخلاقيات الذكاء الاصطناعي Ethics of Artificial Thinking، وهو موضوع مطروح بقوة في مجال البحث الفلسفي، وهو يندرج تحت موضوع أكثر عمومية يتعلق بأخلاقيات التكنولوجيا، والتي هي بدورها تمثل فرعًا رئيسًا من فلسفة الأخلاق التطبيقية Applied Ethics . غير أن هذا الذي تناولناه هنا له صلة بجانب آخر يتعلق، لا بفلسفة الأخلاق في حد ذاتها، وإنما بنظرية المعرفة أيضًا. وهذا يتبدى لنا بوضوح حينما نضع هذا السؤال: هل الآلات الذكية، وبالتالي الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، تُعتبر عاقلة بما أنها قادرة على اتخاذ قرارات معينة؟ هل يمكن أن ننسب صفة العقل إلى هذه الآلات، وهي الصفة التي طالما قصرناها على الموجودات البشرية؟ سرعان ما سيجيب المتحمسون بلا حدود للذكاء الاصطناعي بالإيجاب، وربما ذهبوا إلى القول بأن قصر العقل على البشر وحدهم من دون الآلات هو نوع من التحيز للطبيعة البشرية.
ولكن لنتريث قليلًا ونتساءل: ماذا تعني صفة «عاقل»؟ لا شك في أن العقل مرتبط بالقدرة على اتخاذ قرار، ومن هذه الناحية فإن الآلات الذكية يكون فيها شيء من سمات العقل. ومع ذلك، فإننا لا يمكن أن نصفها بأنها عاقلة تمامًا: فالذي يمتاز بالعقل هو القادر على أن يعقل مشكلته التي يواجها، وهذا يعني أنه يكون قادرًا على اتخاذ قرار بعد إجراء موازنات بين البيانات أو المعطيات المطروحة أمامه، وليس هذا حال الآلات المبرمجة لتتخذ قرارًا معينًا على أساس من بيانات مبرمجة مسبقًا، ومن دون قدرة على النظر والتقدير في ضوء السياق والمتغيرات التي تطرأ على المشهد أو الواقع الفعلي الذي تتعامل معه. والواقع أننا يمكننا القول بأن القليل من البشر هم الذين يكونون قادرين على التعقل بهذا المعنى، وأن الآلات المبرمجة وفقًا للذكاء الاصطناعي تفتقر إلى هذه الخصيصة، بل إنها تكون حتى أدنى من قدرة الحيوانات العليا على التعقل والتفكير بهذا المعنى!
ما يمكن أن نستفيد مما تقدم هو أن الموازنة بين المعطيات على أرض الواقع في ضوء الاعتبارات الأخلاقية والإنسانية هو مناط الصلة بين العقل والإرادة، وتلك مسألة تفتقر إليها آلات وأسلحة الذكاء الاصطناعي؛ ومن ثم فإن السؤال الذي يبقى هو: هل هناك إمكانية لوضع ضوابط أخلاقية لاستخدام الذكاء الاصطناعي في هذا الصدد؟ بطبيعة الحال يمكن للفلسفة أن تسهم في ذلك بقوة، ولكن الأهم أن تصبح هذه المعايير الأخلاقية بمثابة ضوابط أخلاقية مُلزمة تتبناها المؤسسات الدولية: كالأمم المتحدة على سبيل المثال، وهذا أمر يبقى مطروحًا للنظر.