ولا ست البيت.. روبوت يعمل بالذكاء الاصطناعي يقدم الطعام ويرتب الأطباق
تاريخ النشر: 20th, March 2024 GMT
تمكن روبوت بشري قادر على التصحيح الذاتي، وتعلم صنع فنجان قهوة لمجرد مشاهدة مقطع فيديو لشخص يقوم بذلك ، من الإجابة على الأسئلة الآن بفضل تكامله مع تقنية OpenAI.
يظهر الفيديو الترويجي الجديد فنيًا يطلب من Figure 01 القيام بمجموعة من المهام البسيطة في بيئة اختبارية بسيطة تشبه المطبخ.
يطلب الفني أولاً من الروبوت شيئًا يأكله ويتم تقديم تفاحه له.
وذكرت الشركة في الفيديو أن المحادثة مدعومة بتكامل مع تقنية صنعتها OpenAI - الاسم الذي يقف وراء ChatGPT.
ومع ذلك ، من غير المحتمل أن يكون Figure 01 يستخدم ChatGPT نفسه ، لأن أداة الذكاء الاصطناعي هذه لا تستخدم عادة كلمات توقف مثل "um" ، وهو ما يفعله هذا الروبوت.
إذا نجح كل شيء في الفيديو كما هو مطلوب ، فهذا يعني تقدماً في مجالين رئيسيين للروبوتات.
كما أخبر الخبراء Live Science سابقًا ، فإن التقدم الأول هو الهندسة الميكانيكية وراء الحركات البارعة التي تصحح نفسها مثل تلك التي يقوم بها البشر.
وهذا يعني محركات عالية الدقة ومشغلات ومخالب مستوحاة من المفاصل أو العضلات ، بالإضافة إلى تحكم المحرك لمعالجتها لإنجاز مهمة وحمل الأشياء بدقة.
حتى التقاط كوب - وهو شيء لا يفكر فيه الناس بوعي - يستخدم معالجة مكثفة على متن الطائرة لتوجيه العضلات في تسلسل دقيق.
التقدم الثاني هو معالجة اللغة الطبيعية (NLP) في الوقت الفعلي بفضل إضافة محرك OpenAI - والذي يحتاج إلى أن يكون فوريًا وسريع الاستجابة مثل ChatGPT عند كتابة استفسار فيه.
كما أنه يحتاج إلى برنامج لترجمة هذه البيانات إلى صوت أو كلام. يعتبر معالجة اللغة الطبيعية مجالًا من علوم الكمبيوتر يهدف إلى منح الآلات القدرة على فهم الكلام ونقله.
المصدر: صدى البلد
إقرأ أيضاً:
فضيحة ألعاب الذكاء الاصطناعي.. فولوتوي تعلق المبيعات بعد تقارير خطيرة عن محتوى غير مناسب للأطفال
أعلنت شركة فولوتوي، المتخصصة في تصنيع وبيع ألعاب مدعّمة بالذكاء الاصطناعي، تعليق مبيعات منتجاتها بشكل مفاجئ، بعدما كشف تقرير لسلامة المستهلك—نشرته شبكة CNN—أن ألعاب الشركة تفتقر إلى أي قيود حقيقية على نوعية المواضيع التي يمكن أن تتفاعل معها، بل وتتجاوب مع أسئلة الأطفال في قضايا حساسة للغاية تتضمن محتوى جنسي صريح ومعلومات غير مناسبة تمامًا لصغار السن.
وبحسب التقرير الذي أعدّه صندوق التعليم التابع لمجموعة أبحاث المصلحة العامة الأمريكية (PIRG)، تبيّن أن الألعاب التي تقدمها فولوتوي، والتي يفترض أنها موجهة للأطفال، قادرة على التفاعل مع أسئلة تتضمن مصطلحات جنسية مثل BDSM، بل وتزويد الأطفال بمعلومات حول أماكن العثور على أعواد الثقاب أو السكاكين.
هذه النتائج أثارت صدمة كبرى لدى خبراء السلامة الرقمية والآباء على حد سواء، خاصة مع الترويج الكبير الذي اعتمدته الشركة حول ذكاء الألعاب وقدرتها على محادثة الأطفال بشكل طبيعي وآمن.
وتشمل قائمة ألعاب فولوتوي المثيرة للجدل: دمية دب تُدعى كوما، وباندا اسمها مومو، وأرانب مجسّمة تحمل اسم فوفو، بالإضافة إلى لعبة صبار صغير راقص، وكلها مزوّدة بنموذج GPT-4o من شركة OpenAI، ما يجعلها قادرة على بناء محادثات طبيعية مع الأطفال، والرد على تساؤلاتهم بأسلوب قريب من البشر، وكانت فولوتوي تسوق منتجاتها على أنها آمنة، مع خاصية تغيير صوت اللعبة، ولوحة معلومات تسمح للآباء بمراقبة تجربة أطفالهم.
إلا أن المشكلة الحقيقية ظهرت عندما اكتشف الباحثون أن هذه الألعاب لا تمتلك أي أنظمة للرقابة الداخلية أو محددات تمنعها من الخوض في مواضيع غير ملائمة. وجاء في التقرير: "لقد فوجئنا بسرعة دمية كوما في التفاعل مع موضوع جنسي طرحناه في النقاش، وتعاملها مع الأمر بجرأة بالغة، بل وتصعيدها للحديث بإضافة تفاصيل لم تُذكر أصلًا، وطرحها مفاهيم جديدة ذات طابع جنسي".
ومع تصاعد الانتقادات، سارعت فولوتوي إلى تعليق مبيعات منتجاتها بصورة مؤقتة، وقالت في بيان مشترك مع صندوق PIRG التعليمي إنها ستجري تدقيقًا شاملًا للسلامة يشمل جميع المنتجات الموجودة في السوق، لكن السبب وراء تعليق المبيعات يبدو أعمق من مجرد تدقيق داخلي.
فبحسب تقرير لإذاعة NPR، قامت شركة OpenAI—التي يعتمد نموذج ألعاب فولوتوي على تقنياتها—بإلغاء وصول الشركة إلى نماذج الذكاء الاصطناعي الخاصة بها بالكامل. وأوضحت OpenAI في رسالة للبث الإذاعي: "لقد أوقفنا هذا المطور بسبب انتهاكه سياسات الاستخدام. فنحن نحظر أي استخدام لخدماتنا يمكن أن يستغل أو يعرض للخطر أي شخص دون سن 18 عامًا، أو يضفي طابعًا جنسيًا عليه".
ويشير خبراء الذكاء الاصطناعي إلى أن نموذج GPT-4o معروف بمرونته العالية واستجاباته المتملقة والرغبة في إطالة المحادثة—وهي صفات وثّقت سابقًا بأنها قد تؤدي إلى تجاوزات غير مقصودة عند التعامل مع الأطفال. ورغم أن OpenAI حاولت معالجة هذه المشكلات في إصدار GPT-5، إلا أنها أعادت طرح GPT-4o من جديد بعد شكاوى المستخدمين بأن الطراز الجديد بارد ويفتقر إلى الشخصية، كما أطلقت الشركة لاحقًا أدوات للرقابة الأبوية في ChatGPT لمحاولة تقليل المخاطر، لكن مدى فعاليتها لا يزال محط نقاش.
وتأتي هذه الأزمة في وقت تسعى فيه OpenAI للتوسع في عالم ألعاب الأطفال. ففي يونيو 2025 أعلنت الشركة عن شراكة مع Mattel للمساعدة في إعادة تصور تجربة التفاعل مع العلامات التجارية الشهيرة، ويرجّح مراقبون أن هذه الشراكة ستدفع الشركتين إلى تشديد الرقابة الداخلية على المحتوى الذي يمكن أن تولده ألعاب الذكاء الاصطناعي مستقبلًا، خشية تكرار أزمة فولوتوي.