أعلنت غوغل عن موجة جديدة من إجراءات تسريح الموظفين رغم تحقيقها أرباح قياسية، ما أثار المخاوف من استبدال الموظفين بأدوات الذكاء الاصطناعي.

وسرّحت شركة التكنولوجيا العملاقة زهاء 1000 موظف في فرق المبيعات والأجهزة والهندسة الشهر الماضي، على الرغم من تحقيق أرباح بقيمة 20.7 مليار دولار في الربع الرابع من عام 2023، بزيادة قدرها 52% مقارنة بعام 2022.

وأفادت التقارير أن مستثمرين رئيسيين آخرين في مجال الذكاء الاصطناعي، مثل أمازون ومايكروسوفت، سرّحوا عشرات الآلاف من العمال أيضا في الأشهر الـ 12 الماضية.

ورد اتحاد عمال Alphabet على إجراءات تسريح العمال بمنشور على موقع X كتب فيه: "بدأت غوغل جولة أخرى من عمليات تسريح العمال التي لا داعي لها. يعمل أعضاؤنا وزملاؤنا بجد كل يوم لتقديم منتجات رائعة للمستخدمين، ولا يمكن للشركة الاستمرار في طرد زملائنا في العمل بينما تجني المليارات كل ربع سنة. لن نتوقف عن القتال حتى تصبح وظائفنا آمنة!".

وقال كينيث سميث، المدير الهندسي في غوغل، إن الإدارة أبلغته بانتهاء عقد عمله مع الشركة في رسالة بريد إلكتروني، وكتب في منشور على موقع LinkedIn: "لقد شعرت بالكثير من الغضب والإحباط تجاه إدارة غوغل بسبب الطريقة التي تعاملت بها مع تسريح 12 ألف شخص في يناير الماضي، ولا أرى الكثير من الأدلة على أنهم تعلموا من تلك التجربة".

إقرأ المزيد "سورا".. نموذج ذكاء اصطناعي جديد من OpenAI ينشئ مقاطع فيديو "واقعية" من نص فقط (فيديو)

وقال متحدث باسم غوغل لموقع "ديلي ميل": "كما قلنا، نحن نستثمر بشكل مسؤول في أكبر أولويات شركتنا والفرص المهمة المقبلة".

وكشفت التقارير أن غالبية تخفيضات الوظائف المرتبطة بالذكاء الاصطناعي كانت بسبب تركيز الشركات على تطوير تكنولوجيا الذكاء الاصطناعي. وهذا أمر شائع في شركات التكنولوجيا الكبرى، التي سرّحت الكثير من الموظفين كجزء من تدابير خفض التكاليف لاستثمار الأموال في الذكاء الاصطناعي ورقائق الكمبيوتر المكلفة لوحدة معالجة الرسومات (GPU).

وفي الأسبوع الماضي، أطلقت غوغل نموذجها اللغوي المصمم للاستخدام الداخلي فقط (LLM) Goose، حيث تم تدريبه على أكثر من 25 عاما من الخبرة الهندسية، ويمكنه الإجابة على الأسئلة حول التقنيات الخاصة بشركة غوغل، وكتابة التعليمات البرمجية باستخدام مجموعات التكنولوجيا الداخلية ودعم الإمكانات الجديدة.

ويقال إن غوغل تخطط للمزيد من عمليات التسريح من العمل في عام 2024، لكن الرئيس التنفيذي ساندر بيتشاي يدعي أن الأمر لن يكون سيئا مثل التسريح الجماعي للعمال في عام 2023 عندما تخلت الشركة عن 12000 وظيفة في يناير وحده.

وكشفت مذكرة سرّبت حديثا أن التركيز الأساسي لشركة غوغل ينصب على تقنية الذكاء الاصطناعي لعام 2024، حيث أشار بيتشاي إلى أهداف تشمل تطوير الذكاء الاصطناعي المتقدم والآمن والمسؤول وبناء منصات وأجهزة الحوسبة الشخصية الأكثر فائدة.

المصدر: ديلي ميل

المصدر: RT Arabic

كلمات دلالية: تطبيقات ذكاء اصطناعي غوغل Google مايكروسوفت MicroSoft الذکاء الاصطناعی

إقرأ أيضاً:

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.

خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي

وفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.

قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة". 

وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.

خطر على خصوصية المرضى

أحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.

وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.

أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.

في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.

مقالات مشابهة

  • مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
  • “آبل”: الذكاء الاصطناعي يفتقر للتفكير العميق
  • دراسة: استخدام الذكاء الاصطناعي في الكتابة يؤثر سلبًا في نشاط الدماغ
  • أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
  • خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
  • الذكاء الاصطناعي في التحكيم الرياضي بين الدقة والتحديات
  • محتوى بلا بشر… الذكاء الاصطناعي يغزو تيك توك والارباح تتضاعف
  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث
  • مع قدوم فصل الصيف أهم المزارات السياحية في الإسكندرية التي تجذب المصطافين من كل مكان