استخدمت شركة تسلا Tesla الأمريكية، البشر للتحكم عن بعد في بعض قدرات نماذج روبوت أوبتيموس Optimus الأولية في حدث أقيم مؤخرا بهدف إثارة حماس المستثمرين للمنتجات القادمة.

وفقا لأشخاص مطلعين على الأمر، فإن الموظفين المتمركزين في أماكن أخرى أشرفوا على العديد من التفاعلات بين الآلات البشرية والحاضرين في عرض "We, Robot" الذي أقيم خلال الأسبوع الماضي، وقال الأشخاص إن نماذج أوبتيموس الأولية كانت قادرة على المشي دون تحكم خارجي باستخدام الذكاء الاصطناعي.

 

عصابة هاكرز تخفي البرامج الضارة في مواقع الذكاء الاصطناعي.. ماذا يحدث؟ لسرقة المعلومات.. هاكرز يستغلون الذكاء الاصطناعي لبرمجة أكواد ضارة

 

روبوتات أوبتيموس تبهر العالم بقدراتها المتطورة

ذكر التقرير، أن روبوتات أوبتيموس التي تسير وتتحدث والتي سرقت الأضواء خلال حدث "Cybercab" الذي نظمه إيلون موسك في هوليوود الأسبوع الماضي، تم تشغيلها جزئيا من خلال التحكم عن بعد بواسطة البشر.

روبوت أوبتيموس

وقدمت نماذج الروبوتات التي يبلغ طولها ستة أقدام تقريبا، كوكتيلات الفواكه، ورقصت على أنغام الموسيقى، وتجاذبت أطراف الحديث مع الضيوف.

وقالت مصادر لـ “بلومبرج”، إنه على الرغم من أن روبوتات أوبتيموس كانت قادرة على المشي باستخدام الذكاء الاصطناعي، إلا أن العديد من أفعالها تم التحكم فيها عن بعد من قبل موظفي تسلا.

روبوت أوبتيموس

وبعد الحدث الذي أقيم يوم الخميس الماضي، توجه الضيوف إلى وسائل التواصل الاجتماعي للتكهن بما يسمى بالقدرات الذاتية للروبوتات.

بينما لم يناقش “ماسك” حدود التكنولوجيا الكامنة وراء الروبوتات خلال الحدث، بدا أن روبوتات أوبتيموس كانت مستجيبة لاستجواب الضيوف.

في أحد مقاطع الفيديو المنشورة على موقع إكس (تويتر سابقا)، قال روبوت النادل في الحدث لأحد الضيوف: "اليوم، أتلقى المساعدة من إنسان، أنا لست مستقلا بشكل كامل بعد”.

روبوت أوبتيموس

ادعى ماسك أن أوبتيموس سيكون “أكبر منتج على الإطلاق من أي نوع” - فهو قادر على جز العشب، أو تمشية الكلب، أو مشاهدة الأطفال، أو مجرد أن يكون صديقًا.

وقال الملياردير إن تكلفة الروبوتات أقل من تكلفة السيارة، ما بين 20 ألف دولار إلى 30 ألف دولار، وفي وقت سابق من هذا العام، قال إن شركة تسلا قد تكون قادرة على بيع الروبوتات البشرية بحلول نهاية العام المقبل.

كان حدث Cybercab هو أول فرصة للموظفين من خارج شركة تسلا للتفاعل مع أوبتيموس - وكان بمثابة حدث بارز للعديد من المستثمرين، لكن الكشف عن جهاز التحكم عن بعد يبدد الآمال في أن يكون أوبتيموس جاهزا للإصدار قريبا.

روبوت أوبتيموس

المصدر: صدى البلد

كلمات دلالية: روبوت أوبتيموس تسلا الذكاء الاصطناعي روبوتات روبوتات تسلا روبوتات بشرية الذکاء الاصطناعی روبوت أوبتیموس عن بعد

إقرأ أيضاً:

الحرب والذكاء الاصطناعي

في عالمنا الراهن، لم تعد الحروب الطويلة -لا الخاطفة- تعتمد في المقام الأول على الطائرات الحربية أو المقاتلات التي يقودها مقاتل طيار، وهي الطائرات التي تشكل القوة الضاربة في أي جيش قوي، وإنما أصبحت تعتمد على المسيرات أو الطائرات من دون طيار، وهي أبرز الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تُستخدم في الحروب الآن على نطاق واسع؛ لأنها سهلة التصنيع ورخيصة التكلفة إلى حد بعيد. ولكن استخدام مثل هذه الأسلحة أو الآلات القاتلة في الحروب يثير أسئلة فلسفية عديدة تتعلق بفلسفة الأخلاق، بل حتى بنظرية المعرفة ذاتها، وهذا ما أهتم بالتنويه إليه في هذا المقال.

من المعلوم أن هذه الأسلحة تكون قابلة للخطأ على أنحاء عديدة مهما كانت دقتها: فهي مبرمجة على إحداثيات وخوارزميات يمكن أن تصيب أهدافًا مدنية، ومن ثم لا تكون قادرة على التمييز بين المدنيين والعسكريين، وهي بذلك تخالف المبادئ الأخلاقية للحرب التي أقرتها القوانين الدولية. وربما يجادل بعض المفتونين بالقدرات الهائلة للتكنولوجيا بالقول بأن هناك أدلة كثيرة على القدرة اللامحدودة لأسلحة الذكاء الاصطناعي على إصابة أهدافها بدقة؛ ولكن رأي هؤلاء غافل عن أن الآلة العسكرية المبرمجة وفقًا للذكاء الاصطناعي يمكن أن تكون متحيزة؛ وبالتالي يمكن أن تتخذ قرارات نهائية خاطئة! وربما يدعو هذا القول إلى الدهشة؛ لأننا اعتدنا أن ننسب التحيز أو عدم التحيز إلى البشر وليس إلى الآلات.

ولكن هذا القول لا ينبغي أن يكون مدعاة لدهشتنا؛ ببساطة لأن هذه الآلات تنحاز وفقًا لانحياز البشر، أعني وفقًا لانحياز البيانات التي زودها بها البشر. وعلى سبيل المثال لا الحصر يمكن أن تكون هذه البيانات متحيزة ضد جماعة بعينها أو جنس أو عرق معين؛ ولذلك تختلف هذه البيانات بحسب الدول المصنعة لهذه الآلات، وبحسب الحروب التي تخوضها في مرحلة معينة ضد دولة أو دول بعينها. حقًّا إن هذه الآلات قد تستخدم أنظمة مبرمجة آليًّا بطريقة جيدة لاتخاذ قرارات ذاتية، ولكن قرارتها تظل عُرضة للخطأ، بل للأخطاء المميتة وغير القابلة للتدارُك. وربما يجادل بعض آخر بالدفاع عن إمكانية أخطاء هذه الآلات بالقول بأن هذه الأخطاء تُوجد أيضًا لدى البشر؛ فلماذا نتحفظ على نجاعة آلات وأسلحة الذكاء الاصطناعي في هذا الصدد. غير أن هذا القول غافل أيضًا عن أن نتائج القرارات الخاطئة للذكاء الاصطناعي هنا تكون كارثية بشكل يفوق كثيرًا أخطاء البشر؛ لأن هذه القرارات تكون نهائية وغير قابلة للمراجعة أو التصحيح أو التعديل.

هذا كله له صلة وثيقة بموضوع أخلاقيات الذكاء الاصطناعي Ethics of Artificial Thinking، وهو موضوع مطروح بقوة في مجال البحث الفلسفي، وهو يندرج تحت موضوع أكثر عمومية يتعلق بأخلاقيات التكنولوجيا، والتي هي بدورها تمثل فرعًا رئيسًا من فلسفة الأخلاق التطبيقية Applied Ethics . غير أن هذا الذي تناولناه هنا له صلة بجانب آخر يتعلق، لا بفلسفة الأخلاق في حد ذاتها، وإنما بنظرية المعرفة أيضًا. وهذا يتبدى لنا بوضوح حينما نضع هذا السؤال: هل الآلات الذكية، وبالتالي الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، تُعتبر عاقلة بما أنها قادرة على اتخاذ قرارات معينة؟ هل يمكن أن ننسب صفة العقل إلى هذه الآلات، وهي الصفة التي طالما قصرناها على الموجودات البشرية؟ سرعان ما سيجيب المتحمسون بلا حدود للذكاء الاصطناعي بالإيجاب، وربما ذهبوا إلى القول بأن قصر العقل على البشر وحدهم من دون الآلات هو نوع من التحيز للطبيعة البشرية.

ولكن لنتريث قليلًا ونتساءل: ماذا تعني صفة «عاقل»؟ لا شك في أن العقل مرتبط بالقدرة على اتخاذ قرار، ومن هذه الناحية فإن الآلات الذكية يكون فيها شيء من سمات العقل. ومع ذلك، فإننا لا يمكن أن نصفها بأنها عاقلة تمامًا: فالذي يمتاز بالعقل هو القادر على أن يعقل مشكلته التي يواجها، وهذا يعني أنه يكون قادرًا على اتخاذ قرار بعد إجراء موازنات بين البيانات أو المعطيات المطروحة أمامه، وليس هذا حال الآلات المبرمجة لتتخذ قرارًا معينًا على أساس من بيانات مبرمجة مسبقًا، ومن دون قدرة على النظر والتقدير في ضوء السياق والمتغيرات التي تطرأ على المشهد أو الواقع الفعلي الذي تتعامل معه. والواقع أننا يمكننا القول بأن القليل من البشر هم الذين يكونون قادرين على التعقل بهذا المعنى، وأن الآلات المبرمجة وفقًا للذكاء الاصطناعي تفتقر إلى هذه الخصيصة، بل إنها تكون حتى أدنى من قدرة الحيوانات العليا على التعقل والتفكير بهذا المعنى!

ما يمكن أن نستفيد مما تقدم هو أن الموازنة بين المعطيات على أرض الواقع في ضوء الاعتبارات الأخلاقية والإنسانية هو مناط الصلة بين العقل والإرادة، وتلك مسألة تفتقر إليها آلات وأسلحة الذكاء الاصطناعي؛ ومن ثم فإن السؤال الذي يبقى هو: هل هناك إمكانية لوضع ضوابط أخلاقية لاستخدام الذكاء الاصطناعي في هذا الصدد؟ بطبيعة الحال يمكن للفلسفة أن تسهم في ذلك بقوة، ولكن الأهم أن تصبح هذه المعايير الأخلاقية بمثابة ضوابط أخلاقية مُلزمة تتبناها المؤسسات الدولية: كالأمم المتحدة على سبيل المثال، وهذا أمر يبقى مطروحًا للنظر.

مقالات مشابهة

  • الحرب والذكاء الاصطناعي
  • ربنا يستر.. خالد الجندي: الذكاء الاصطناعي بيجاوب بفهلوة في المسائل الدينية
  • توجه لتحويل فحص القيادة العملي للسائقين ليعتمد على الذكاء الاصطناعي
  • حركات بهلوانية وركلات.. روبوت بشري يغزو الأسواق والسعر مفاجأة
  • مؤتمر الذكاء الاصطناعي.. روبوتات شبيهة بالبشر تلعب وترسم وتنجز المهام
  • "روبوتات" في الصين تذهل الكثيرين بقدراتها على أداء مهام متنوعة يؤديها البشر  في يومياتهم
  • روبوتات الذكاء الاصطناعي تتقدم بخجل… وغوغل يواصل الهيمنة
  • جيل الإنترنت يفضل روبوتات الدردشة على البشر والقلق يتصاعد
  • أندية كبرى تستثمر في الذكاء الاصطناعي للوقاية من إصابات اللاعبين
  • "سدايا" تدعم الدور المحوري للمملكة في رسم سياسات وأخلاقيات الذكاء الاصطناعي