أعلنت “غوغل” عن إطلاق ميزة جديدة تعتمد على الذكاء الاصطناعي تتيح للمستخدمين تجربة الملابس افتراضيًا عبر تحميل صورة لأنفسهم، لتظهر الملابس كيف ستبدو عليهم قبل الشراء، وذلك من خلال مخطط “غوغل” للتسوق ونتائج البحث.

الميزة متاحة الآن في الولايات المتحدة، ويمكن للمستخدمين حفظ إطلالاتهم ومشاركتها مع الأصدقاء.

بالإضافة إلى ذلك، أطلقت غوغل خاصية تنبيهات الأسعار التي تسمح للمتسوقين بتحديد السعر المفضل والحجم واللون للمنتجات، ليصلكم تنبيه تلقائي عند توافر المنتج بالسعر المطلوب.

وفي خريف 2025، ستضيف غوغل ميزة جديدة تتيح للمستخدمين استلهام أفكار لتصميم غرفهم وملابسهم عبر صور مولّدة بالذكاء الاصطناعي، حيث ستُستخدم قاعدة بيانات ضخمة تضم 50 مليار منتج لتوفير أفضل الخيارات المرئية.

هذه الخطوات تعكس استثمار غوغل المتزايد في دمج الذكاء الاصطناعي في تجربة التسوق لتوفير تجربة أكثر تفاعلية وشخصية للمستخدمين.

 “إينياس”.. غوغل تطلق ذكاءً اصطناعيًا يفك ألغاز الحضارات ويعيد قراءة التاريخ

في خطوة تمثل قفزة تكنولوجية غير مسبوقة في مجال علم الآثار واللغات القديمة، أعلنت شركة “ديب مايند” التابعة لـ”غوغل” عن إطلاق أداة ذكاء اصطناعي متطورة تحمل اسم “إينياس” (Aeneas)، وهو اسم مستوحى من البطل الأسطوري الذي حمل تراث طروادة إلى روما، في إشارة رمزية إلى مهمة الأداة في حمل رموز الماضي إلى وعي الحاضر.

تهدف “إينياس” إلى فك رموز النقوش الأثرية القديمة، لاسيما النقوش اللاتينية من الإمبراطورية الرومانية، من خلال تقنيات تعلم عميق قادرة على تحليل النصوص والصور معًا. ويعتمد النظام على قاعدة بيانات هائلة تضم أكثر من 176 ألف نقش لاتيني، تم جمعها من مختلف أنحاء الإمبراطورية، وهي ثمرة عقود من التوثيق الأكاديمي الدقيق.

الابتكار الأبرز في “إينياس” هو قدرتها على استكمال الأجزاء التالفة من النقوش بدقة تصل إلى 73% في حالات الفجوات التي لا تتجاوز عشرة أحرف، بالإضافة إلى قدرتها المدهشة على تحديد الفترة الزمنية التي كتبت فيها النقوش بهامش خطأ لا يتجاوز 13 سنة، وهو مستوى من الدقة غالبًا ما يتجاوز قدرات المؤرخين أنفسهم.

ومن أبرز تطبيقات الأداة حتى الآن، نجاحها في تحليل النقش الشهير “أعمال الإله أغسطس” (Res Gestae Divi Augusti)، حيث قدمت قراءة زمنية مدعومة بالأدلة تتفق مع نتائج الجدل الأكاديمي الطويل حول هذا النص الأثري.

وتعمل “إينياس” من خلال مراحل تحليل مركبة، تبدأ بمعالجة الصور الرقمية للنقش، ثم تحليل المحتوى النصي باستخدام شبكات عصبية متخصصة، ثم ربط النقش بسياقه التاريخي عبر مقارنة أسلوبه ومحتواه مع آلاف النقوش الأخرى. وتنتج هذه العملية ما يمكن وصفه بـ “بصمة تاريخية” لكل نقش، تحدد خصائصه اللغوية والزمنية والجغرافية.

وتُظهر النتائج الأولية أن تعاون المؤرخين مع “إينياس” يرفع دقة التحليل إلى مستويات غير مسبوقة، مقارنة بالاعتماد على الذكاء الاصطناعي أو الجهد البشري بمفرده. كما تتيح الأداة تسريع عمليات البحث عن نصوص متشابهة في قواعد البيانات الضخمة من ساعات وأيام إلى مجرد ثوانٍ.

آفاق جديدة في دراسة الحضارات

لا تقتصر طموحات الفريق البحثي على اللغة اللاتينية، بل يجري حاليًا توسيع نطاق الأداة لتشمل لغات قديمة أخرى مثل الإغريقية، والقبطية، وربما الهيروغليفية في المستقبل، بالإضافة إلى تحليل أنواع أخرى من الشواهد التاريخية، كالبرديات والعملات والنقوش الحجرية والخشبية.

ويأمل الباحثون أن تساعد هذه الأداة في إعادة بناء سياقات تاريخية مفقودة، وربط شظايا متفرقة من الماضي بصورة جديدة تفتح آفاقًا لفهم أعمق للحضارات القديمة، بما في ذلك كيفية انتقال المعارف والثقافات والرموز بين الشعوب.

المصدر: عين ليبيا

كلمات دلالية: التسوق بالذكاء الاصطناعي الذكاء الاصطناعي تجربة الملابس افتراضي ا شركة غوغل ميزة جديدة

إقرأ أيضاً:

6 أخطار أمنية يجب ألا تقع بها عند استخدام شات جي بي تي في العمل

أصبح استخدام الذكاء الاصطناعي في العمل أمرا شائعا، وإذا لم تفعل ذلك، فسوف تتخلف عن زملائك بخطوات، ولكن رغم ذلك، فقد تصبح أدوات الذكاء الاصطناعي مثل "شات جي بي تي" خطرة جدا إذا استُعملت خطأً.

ولهذا من المهم فهم المخاطر الأمنية الخفية التي قد تسببها هذه الأدوات من انتهاك الخصوصية إلى سرقة الملكية الفكرية، وسنذكر أبرز 6 أخطار رئيسية يجب الانتباه لها عند استخدام الذكاء الاصطناعي في العمل.

أخطار الخصوصية

من أكبر الأخطار عند استخدام أدوات الذكاء الاصطناعي في العمل مشاركة معلومات حساسة أو خاصة دون قصد، مثل بيانات العملاء أو مستندات داخلية أو حتى أفكار مهمة تعود لك أو لشركتك.

وقد تفكر في إرسال مسودة اقتراح أو عقد أو فكرة اختراع لأداة ذكاء اصطناعي لتحسينها، لكن بمجرد القيام بذلك تكون قد سلمت تلك المعلومات إلى منصة خارجية، وربما لا تكون لديك سيطرة كاملة على ما يحدث لها بعد ذلك.

وبعض الشركات المزودة لتلك الأدوات توفّر حسابات مخصصة للمؤسسات وتعد بعدم تخزين أو استخدام بياناتك في تدريب نماذجها، لكن هذا يعتمد على إعدادات الأداة وسياسات الخصوصية التي يمكن أن تتغير بمرور الوقت أو تتأثر بقوانين استثنائية.

ومن الجدير بالذكر أن الخطر لا يكمن في أن الذكاء الاصطناعي يسرق بياناتك، بل في أنك قد تعطيه معلومات قيّمة دون أن تدرك العواقب لاحقا، فهو يأخذ بياناتك ويتدرب عليها ثم يعرضها للعامة على شكل مخرجات متى طُلب منه ذلك.

وإذا أسأت استخدام الذكاء الاصطناعي، فإنك قد تنتهك قانون قابلية نقل التأمين الصحي والمساءلة "إتش آي بي إيه إيه" (HIPAA) أو قانون حماية البيانات العامة "جي دي بي آر" (GDPR)، ويجب أن تعلم أن انتهاك هذه القوانين يترتب عليه عقوبات مالية باهظة لشركتك، كما أن إساءة التعامل مع بيانات العملاء أو المرضى قد يكلفك وظيفتك، وربما تكون قد وقعت اتفاقية عدم إفصاح عندما بدأت عملك وإذا أفدت بأن بيانات محمية فهذا يعني أنك انتهكت الاتفاقية.

إعلان

وحتى لا يقع الموظفون في هذه الأخطاء تُقدم شركات الذكاء الاصطناعي مثل "أوبن إيه آي" و"أنثروبيك" خدمات مؤسسية لعديد من الشركات تسمح باستخدام منتجاتها بشكل مخصص مع مراعاة حماية الخصوصية والأمن السيبراني، ولهذا من المفيد استخدام حساب الذكاء الاصطناعي الذي توفره الشركة بدلا من استخدام حساب شخصي.

تعتمد أدوات الذكاء الاصطناعي على كميات هائلة من البيانات مثل المقالات والصور والأبحاث ومحتوى الفيديوهات (شترستوك) المعلومات الخطأ

الذكاء الاصطناعي لا يتحقق من المعلومات التي يقدمها، فهو يتنبأ بالكلمات بناء على الأنماط التي تعلمها، ونماذج اللغة الكبيرة قادرة على كتابة مستندات كاملة أو تلخيصات أو حتى اقتباسات في ثوانٍ، لكنها كثيرا ما تُهلوس –أي تنتج معلومات خطأ مع أنها تبدو قابلة للتصديق– وقد تكون هذه المعلومات على شكل مصادر وهمية أو بيانات غير دقيقة أو قضايا قانونية لا وجود لها.

وحتى في الحسابات البسيطة أو الجداول يمكن أن يرتكب الذكاء الاصطناعي أخطاءً مثل حساب النتائج بشكل غير صحيح أو تطبيق معادلات بطريقة خطأ أو حتى يعطي معلومات خطأ، وإذا نبهته إلى الخطأ قد يعترف ويصحح نفسه مما يثبت أنه لم يكن متأكدا منذ البداية.

ولذلك إذا قمت بنسخ محتوى من الذكاء الاصطناعي ووضعته في عرض تقديمي أو تقرير من دون مراجعة، فأنت تخاطر بنشر معلومات مضللة قد تضر بمصداقيتك ومصداقية شركتك، ولهذا من الضروري أن تراجع مخرجات الذكاء الاصطناعي وتتحقق منها على الدوام.

أخطار التحيّز

تعتمد أدوات الذكاء الاصطناعي على كميات هائلة من البيانات مثل المقالات والصور والأبحاث ومحتوى الفيديوهات، مما يجعلها في بعض الأحيان تعكس تحيزات موجودة في تلك البيانات أو لدى من قام بكتابتها.

ورغم محاولات الشركات الكبرى تعديل نماذجها لكي لا تُخرج أي محتوى مسيء أو متحيّز، فإن هذه الجهود ليست دائما ناجحة. على سبيل المثال، قد يستخدم أحد ما أداة ذكاء اصطناعي لاختيار موظفين جدد، فتنتهي الأداة باستبعاد مرشحين من خلفيات عرقية معينة دون قصد، وهو ما لا يضر فقط بالمرشحين، بل قد يعرض الشركة لقضايا قانونية مكلفة.

والأسوأ أن بعض الحلول التي تُستخدم للحد من التحيّز قد تسبب تحيزا من نوع آخر، مثلا كأن يستخدم المطورون ما يُعرف بمطالبات النظام لتوجيه سلوك الأداة، مثل منعها من استخدام كلمات نابية أو عبارات عنصرية، ولكن هذه الأوامر نفسها قد تزرع تحيزا غير مقصود في ردود الأداة.

وأحد الأمثلة البارزة على ذلك عندما قام أحد مطوري شركة "إكس إيه آي" (xAI) بتعديل أحد هذه الأوامر، مما جعل روبوت الدردشة "غروك" (Grok) يكرر مزاعم غريبة عن إبادة جماعية للبيض في جنوب أفريقيا، إضافة إلى تعليقات "معادية للسامية"، تضمنت مدحا لأدولف هتلر، تسببت في استقالة ليندا ياكارينو الرئيسة التنفيذية لشركة إكس.

الانحراف في المحادثة وتأثيره على المدى الطويل

ليس كل تأثير في الذكاء الاصطناعي يأتي من الخارج، أحيانا يكون بسبب تفاعلك الشخصي معه، فكلما استخدمت أداة الذكاء الاصطناعي أكثر، زاد تأثر ردودها بسياق محادثاتك السابقة خاصة على المنصات التي تعتمد على ميزة الذاكرة أو تتبع الجلسات المستمرة.

على سبيل المثال إذا كنت تشغل وظيفة مدير موارد بشرية في شركة ما، وسبق وأن أخبرت "شات جي بي تي" أنك مررت بتجربة سيئة مع نوع معين من الموظفين، ثم سألته لاحقا "هل تنصحني بتوظيف هذا الشخص؟"، في هذه الحالة يمكن أن يتأثر رد الذكاء الاصطناعي بتجربتك السيئة السابقة سواء بقصد أو دون قصد، إذ إن الروبوت قد يميل إلى رأي سلبي في أي موظف جديد، لأنك أبديت رأيا سلبيا سابقا عن موظف مشابه دون أن تنتبه لهذا التحيز.

وهذا ما يُطلق عليه اسم "انحراف المحادثة"، حيث يبدأ الذكاء الاصطناعي في التفاعل معك، وكأنه يتبنى وجهة نظرك السابقة بدلا من أن يكون محايدا، فإذا تعاملت مع "شات جي بي تي" كمستشار لا كأداة، قد تحصل على إرشادات خطأ بناءً على توجيهات سابقة مشوهة أو عاطفية.

ليس كل تأثير في الذكاء الاصطناعي يأتي من الخارج، أحيانا يكون بسبب تفاعلك الشخصي معه (وكالة الأناضول) أخطاء المستخدمين

أطلقت شركة ميتا مؤخرا تطبيقا للهاتف المحمول خاصا بأداة الذكاء الاصطناعي "لاما" (Llama)، وتضمن التطبيق موجزا اجتماعيا يعرض الأسئلة والنصوص والصور التي ينشرها المستخدمون، ولكن كثيرا من المستخدمين لم يكونوا على علم بأن محادثاتهم يمكن أن تُعرض للجميع، مما أدى إلى تسرب معلومات محرجة أو خاصة.

إعلان

ورغم أن هذه الحالة بسيطة، فإنها توضح كيف يمكن لخطأ بسيط من المستخدم أن يؤدي إلى مواقف غير مرغوبة، وفي بعض الأحيان قد يسبب ضررا حقيقيا للشركات.

تخيل أن فريق العمل لا يدرك أن أداة الذكاء الاصطناعي الخاصة بتسجيل الملاحظات لا تزال تعمل بعد انتهاء الاجتماع الرسمي، فيبدأ بعض الموظفين بالتحدث بحرية في الغرفة، ظنا منهم أن كل شيء قد انتهى بينما تظل الأداة تسجل الحوار، وفي وقت لاحق تُرسل تلك المحادثة غير الرسمية عن طريق الخطأ إلى جميع الحضور في الاجتماع، مما يسبب إحراجا للموظفين وقد يؤدي إلى طردهم.

انتهاك الملكية الفكرية

إذا كنت تستخدم أدوات الذكاء الاصطناعي لإنشاء صور أو شعارات أو مقاطع فيديو أو صوت، فقد تكون الأداة نفسها تدربت على مواد محمية بحقوق الطبع والنشر، وهذا يعني أن ما تنتجه قد يحتوي -دون قصد- على عناصر تنتهك حقوق ملكية فكرية لفنان أو جهة معينة، مما يعرضك أو شركتك لخطر قانوني وربما دعاوى قضائية.

يُذكر أن القوانين المتعلقة بحقوق النشر والذكاء الاصطناعي لا تزال غير واضحة تماما، وهناك قضايا ضخمة لم تُحسم بعد، مثل دعوى ديزني ضد "ميدجورني" (Midjourney)، ودعوى نيويورك تايمز ضد "أوبن إيه آي"، بالإضافة إلى قضايا مرفوعة من مؤلفين ضد شركة "ميتا".

لا تفترض أن كل ما تنتجه أدوات الذكاء الاصطناعي آمن قانونيا للاستخدام، فقبل استخدام أي محتوى مولد بالذكاء الاصطناعي في عمل رسمي أو تجاري، من الأفضل دائما استشارة محامي أو الفريق القانوني في الشركة.

مقالات مشابهة

  • فيديو.. مباراة تنس بلا نهاية بين روبوتات غوغل لتدريب الذكاء الاصطناعي
  • “غوغل” تُقدم “إينياس”.. ذكاء اصطناعي يفك ألغاز الحضارات القديمة
  • الذكاء الاصطناعي يغزو واتساب بمميزات جديدة
  • «غوغل» تُطلق أداة «إينياس» لفك ألغاز الحضارات القديمة
  • أهم ما يميز أداة الذكاء الاصطناعي نوت بوك إل إم من غوغل
  • هتافات اليمنيين تزلزل الصمت العربي .. ثورة الشعب اليمني ضد إبادة غزة تدخل مرحلة جديدة وهذه تفاصيلها
  • وداعا للانتظار.. تقنية جديدة تختصر زمن كشف كورونا إلى دقائق
  • الذكاء الاصطناعي يساعد في تحليل النقوش اللاتينية وتأريخها
  • 6 أخطار أمنية يجب ألا تقع بها عند استخدام شات جي بي تي في العمل