#سواليف

أعلنت #غوغل عن موجة جديدة من إجراءات #تسريح #الموظفين رغم تحقيقها أرباح قياسية، ما أثار المخاوف من استبدال #الموظفين بأدوات #الذكاء_الاصطناعي.

وسرّحت شركة التكنولوجيا العملاقة زهاء 1000 موظف في فرق المبيعات والأجهزة والهندسة الشهر الماضي، على الرغم من تحقيق أرباح بقيمة 20.7 مليار دولار في الربع الرابع من عام 2023، بزيادة قدرها 52% مقارنة بعام 2022.

وأفادت التقارير أن مستثمرين رئيسيين آخرين في مجال الذكاء الاصطناعي، مثل أمازون ومايكروسوفت، سرّحوا عشرات الآلاف من العمال أيضا في الأشهر الـ 12 الماضية.

مقالات ذات صلة “قنبلة موقوتة” كامنة في هواتفنا تهدد صحتنا 2024/02/23

ورد اتحاد عمال Alphabet على إجراءات تسريح العمال بمنشور على موقع X كتب فيه: “بدأت غوغل جولة أخرى من عمليات تسريح العمال التي لا داعي لها. يعمل أعضاؤنا وزملاؤنا بجد كل يوم لتقديم منتجات رائعة للمستخدمين، ولا يمكن للشركة الاستمرار في طرد زملائنا في العمل بينما تجني المليارات كل ربع سنة. لن نتوقف عن القتال حتى تصبح وظائفنا آمنة!”.

وقال كينيث سميث، المدير الهندسي في غوغل، إن الإدارة أبلغته بانتهاء عقد عمله مع الشركة في رسالة بريد إلكتروني، وكتب في منشور على موقع LinkedIn: “لقد شعرت بالكثير من الغضب والإحباط تجاه إدارة غوغل بسبب الطريقة التي تعاملت بها مع تسريح 12 ألف شخص في يناير الماضي، ولا أرى الكثير من الأدلة على أنهم تعلموا من تلك التجربة”.
إقرأ المزيد
“سورا”.. نموذج ذكاء اصطناعي جديد من OpenAI ينشئ مقاطع فيديو “واقعية” من نص فقط (فيديو)

وقال متحدث باسم غوغل لموقع “ديلي ميل”: “كما قلنا، نحن نستثمر بشكل مسؤول في أكبر أولويات شركتنا والفرص المهمة المقبلة”.

وكشفت التقارير أن غالبية تخفيضات الوظائف المرتبطة بالذكاء الاصطناعي كانت بسبب تركيز الشركات على تطوير تكنولوجيا الذكاء الاصطناعي. وهذا أمر شائع في شركات التكنولوجيا الكبرى، التي سرّحت الكثير من الموظفين كجزء من تدابير خفض التكاليف لاستثمار الأموال في الذكاء الاصطناعي ورقائق الكمبيوتر المكلفة لوحدة معالجة الرسومات (GPU).

وفي الأسبوع الماضي، أطلقت غوغل نموذجها اللغوي المصمم للاستخدام الداخلي فقط (LLM) Goose، حيث تم تدريبه على أكثر من 25 عاما من الخبرة الهندسية، ويمكنه الإجابة على الأسئلة حول التقنيات الخاصة بشركة غوغل، وكتابة التعليمات البرمجية باستخدام مجموعات التكنولوجيا الداخلية ودعم الإمكانات الجديدة.

ويقال إن غوغل تخطط للمزيد من عمليات التسريح من العمل في عام 2024، لكن الرئيس التنفيذي ساندر بيتشاي يدعي أن الأمر لن يكون سيئا مثل التسريح الجماعي للعمال في عام 2023 عندما تخلت الشركة عن 12000 وظيفة في يناير وحده.

وكشفت مذكرة سرّبت حديثا أن التركيز الأساسي لشركة غوغل ينصب على تقنية الذكاء الاصطناعي لعام 2024، حيث أشار بيتشاي إلى أهداف تشمل تطوير الذكاء الاصطناعي المتقدم والآمن والمسؤول وبناء منصات وأجهزة الحوسبة الشخصية الأكثر فائدة.

المصدر: سواليف

كلمات دلالية: سواليف غوغل تسريح الموظفين الموظفين الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

هل عبرنا الوادي الغريب ؟ الذكاء الاصطناعي يحاكينا صوتا وصورة

قبل سنوات قليلة كنت أطالع أخبار هزيمة أدوات جوجل الذكية لبطل لعبة جو (go) الذي توّج بثماني عشرة ميدالية عالمية من قبل، كان ذلك بالتحديد في 15 مارس من عام 2016، هذه اللعبة التي تتطلب الكثير من التحليل والتخطيط والسرعة أتقنتها حواسيب «ألفا جو»(AlphaGo) المطورة مما يسمى «العقل العميق لجوجل» (Google DeepMind)، ويومئذ أُعتبر ذلك بمثابة إعلان مرحلة جديدة لأدوات الذكاء الاصطناعي الخاصة بجوجل وفتحت الباب أمام تصورات لم تكن تخطر على بال كثيرين عن قدرات الآلة المستقبلية في مجالات ظلت حكرا على العقل البشري وربما ظننا أنها ستبقى كذلك.

صحيح أن تفوق الكمبيوتر على غاري كاسباروف في عام 1997 يُعد نقطة فارقة في تاريخ الذكاء الاصطناعي، إلا أن تفوقه في لعبة جو عُد استثنائيا؛ لأنه لم يكشف عن قدرة الكمبيوتر على إجراء الحسابات المعقدة فحسب (وهو ما نعرف أنه قادر على فعله بمهارة حتى مع لعبة أعقد يصل عدد الحركات الأولى الممكنة فيها إلى 360 مقابل 20 للشطرنج) بل وأن يأتي بحركات تعد «غير تقليدية». أي أنها ابتكرت استراتيجيات جديدة تمامًا، لم تكتسبها من خلال تقليد أو ملاحظة أداء البشر في اللعبة.

شكّلت هزيمة كاسباروف نقطة تحوّل دفعت كبرى شركات الذكاء الاصطناعي إلى دخول سباق لإثبات تفوقها عبر تفوق آلاتها على الإنسان، ليس في الشطرنج وحدها، بل في ألعاب أكثر تعقيدا. وهذه المرة بأسلوب مغاير لتقنيات IBM التي طورت ديب بلو (Deep Blue). ففي حين أن ديب بلو استند إلى الذكاء الاصطناعي الرمزي، اعتمدت ديب مايند DeepMind على تقنيات التعلم الآلي والشبكات العصبية الاصطناعية. ويمكننا فهم الفرق بين الخوارزميتين بالنظر إلى الذكاء الاصطناعي الرمزي على أنه يشبه البرمجة التقليدية التي تعتمد على سلسلة من الشروط (مثلا: إذا حدث كذا، فافعل كذا)، معززة بقدرات حسابية ضخمة وخوارزميات بحث متقدمة. أما أنظمة التعلم الآلي، فهي تُبرمَج عبر التعلم، فتتعلم من البيانات (مثل دراستها لمباريات جو سابقة كي تُتقن اللعبة)، دون أن تُمد بالتعليمات على نحو صريح.

نفس هذه التقنيات والأدوات من جوجل «وعقلها العميق» تسارعت خطى تطورها، مع اهتمام العالم بشكل مركز على هذه التقنيات، إلى أن أعلنت جوجل مؤخرا عن أحدث أداوتها، ومنها أداة «في أو 3» المتخصصة في إنتاج مقاطع ڤيديو، سيناريو وصوت وصورة وتمثيل وإخراج، وموسيقا وضوضاء، مع تحريك للشفاه وتعابير في الوجوه بشكل واقعي إلى حد بعيد جدا، وقد تصدرت المشهد التقني لهذا السبب. هذه الأداة مختلفة عن نظيراتها لأنها قفزت قفزات نحو الواقعية، وكما يقول الخبراء أنها أخيرا غادرت «الوادي الغريب (Uncanny valley)»، في إشارة إلى أنها بعد هذه المرحلة لم تعد غريبة وغير مألوفة بالنسبة لمعظم البشر، والوصول لهذه المرحلة يعني تقدما حاسما وغير مسبوق، الواقعية هذه لم تعد تقتصر على الشكل الظاهري فحسب، بل امتدت إلى محاكاة ديناميكيات الحركة وتفاعلات الضوء والظل وانسجام العناصر المرئية والصوتية في تناغم مدهش، يجعل الفارق بين ما هو مصنوع بالذكاء الاصطناعي وما هو حقيقي يتضاءل يوما بعد يوم. الوادي الغريب هي فرضية في علم النفس والجمال تدرس العلاقة بين مدى مشابهة كائن صناعي (روبوت، دمية، أو شخصية كرتونية ما) للإنسان وردود فعلنا العاطفية تجاهها. تفيد الفرضية أن مدى تشابه الكائن الصناعي مع الإنسان يتناسب تصاعديا مع إعجابنا به وقدرتنا على التعاطف معه. إلا أن هذا يصح لدرجة معينة فحسب. الدرجة التي يبلغ فيها الشبه اقترابا من التطابق، وعندها يثير فينا نفورا غير مبرر. أو لعله مبرر، فعدم الارتياح قادم من تلقينا للكائن كبشري، ومن ثم توترنا إزاء التفاصيل الصغيرة كحركة العين وجمود الوجه. هذا الصعود في الإعجاب والتعاطف تماشيا مع الدقة في التصوير، ثم الهبوط بانحدار إذا استمر التطور هو ما يكسب الظاهرة اسم «الوادي الغريب». وهذا تماما ما يدفع بعض صناع الأفلام المعتمدة على تقنيات CGI ليختاروا أن ينتجوا أعمال إنيمي أقل من قدرتهم الفعلية في الحقيقة: خوفا من تنفير الجمهور.

في السابق - قبل أشهر أو أسابيع فقط - كنا نرى مقاطع الفيديو المنشأة بمثل هذه الأدوات ويسهل علينا تمييزها، ففي النسخة الأولى من

هذه الأدوات كانت تنتج صوتا فقط أو صورة فقط، ثم يتعين على من يريد دمجها أن يعمل على أدوات أخرى، ويستعين بأدوات أخريات لصناعة السيناريو وضبط الشخصيات كذلك، وجاءت هذه الأداة لتقول لنا أن المستقبل الذي ربما ظنناه بعيدا، قد حان، وأنه قد تنخدع بفيديو عالي الجودة، بسيناريو وصوت وصورة -متسقة معا- وموسيقى وشخصيات كلها تم توليدها بأداة تقنية، سهلة وفي المتناول، بل أن أدوات في أو 3 تنتج أصواتا وصورا أصيلة للشخصيات، غير مستنسخة بشكل كامل من البشر، بل أن هذه التقنيات تحاكي بدقة كبيرة فيزياء العالم الحقيقي، من حركة القماش مع الريح إلى انعكاسات الضوء على الأسطح المختلفة، وتفاصيل دقيقة كالرموش وتقلصات الجلد عند الابتسام، مما يجعل الخداع البصري والسمعي أمرا في متناول الجميع تقريبا.

بالتأكيد أن إدارة مثل هذه الأداة لتنتج أفضل المشاهد يتطلب دراية وخبرة في كيفية «هندسة التعليمات» لتكون دقيقة بما فيه الكفاية دون الحاجة لكثير من التعديلات وتكرار المشاهد، فعلى من يديرها أن يهندس أوامره ويفصلها، فإذا ما طلب أحدهم منها -على سبيل المثال- مقطعا ترويجيا لشركة بيع خضار في سوق تقليدي في سلطنة عمان، واكتفى، قد تنتج له مشهدا لثلاثة باعة هندي وباكستاني وسوري يتجولون في سوق نزوى على سكوتر ويروجون بلغتهم لشركة بيع الخضار تلك، بينما يأتي «مهندس تعليمات» أدق وأخبر، ليفصل الأوامر، ويدقق في السيناريو كيف يبدأ وكيف ينتهي، ويفصل الشخصيات وسماتها ولغتها ولبسها وملامحها وطبيعتها، ثم يتعمق في طبيعة المكان والألوان من خلف المشهد والضوضاء والموسيقا الخلفية، ومن ثم عن حركة وزاوية الكاميرات لحظة بلحظة، وحركات الصوت والجسم والتعابير حتى ينتهي المقطع، بالتأكيد أن نتيجة هذه التعليمات والأوامر ستكون أفضل بكثير ومقنعة أكثر وأقرب للواقع. ربما تصل إلى حد يصعب معه على المشاهد غير المدقق أن يحكم على أصالة المشهد من زيفه، وبالمناسبة أصبحت هناك دورات تخصصية مفصلة تقوم بتدريس كيفية صياغة هذه التعليمات وهندسة الأوامر لأدوات الذكاء الاصطناعي لتوجيهه بسهولة ودقة، وربما ستكون هذه المهاراة إحدى متطلبات الكثير من الوظائف في المستقبل القريب.

في أيامنا هذه التي يستهلك فيه العالم المحتوى بشكل كثيف، ومحتوى الفيديو بشكل خاص، توفر هذه الأداة، ومثيلاتها -السابقات والقادمات- ، الكثير من الوقت والجهد والتكلفة، وفي ذات الوقت تثير الكثير من المخاوف، أبرزها سهولة صنع المحتوى المزيف، أو الإدعاء بأن المحتوى مزيف وهو حقيقي، وهذا قد يمهد لانهيار الثقة في ما نراه ونسمعه، ويصبح من السهولة بمكان أن تزيف ما تريد وتنفي ما تريد بادعاء أنه مزيف، وتضلل الرأي العام كذلك، هذه الأزمة المتوقعة في الثقة قد تمتد لتشمل كل شيء، من الأخبار إلى الأدلة في المحاكم إلى الذكريات الشخصية المسجلة، مما يخلق واقعا هشا يصعب الاعتماد على مثل هذه المقاطع.

تنبهت جوجل لهذا الأمر مثلا، وأصدرت أداة تتيح التحقق من المحتوى ما إذا كان قد صنع بأدواتها. وهناك أدوات أخرى مشابهة، غير أنها تواجه تحديا كبيرا في التفريق بين محتوى صنعه البشر، ومحتوى أنشأه الذكاء الاصطناعي بتعلمه من محتوى البشر، فلا غرابة أن تصنف أحد هذه الأدوات أن خطاب الاستقلال للولايات المتحدة الأمريكية قد تم صنعه بأدوات الذكاء الاصطناعي بنسبة ٩٩٪ فربما أن هذه الأدوات تعلمت أصلا من مثل هذه النصوص وأساليبها وتراكيب الجمل التي تستخدمها هذه الأدوات كلها من كلام البشر أصلا. صحيح أن أدوات جوجل -على وجه التحديد- تخفي علامة في تركيبتها لتدل على أنها مصنعة بالذكاء الاصطناعي، غير أن المتخصصين ومن يدققون وراء الأخبار والمقاطع المرئية، هم فقط -ربما- من سيبذلون جهدهم للتحقق، كذلك فإن هذا حاليا ينطبق على أدوات شركة واحدة فقط أما الأدوات الأخرى المنتشرة من شركات عملاقة وناشئة أو مجموعات بحثية أو دول أو مطورين مستقلين أو جهات غير معلنة، فلا ضمانة لوجود أي علامة مائية أو آلية كشف لمثل هذه المقاطع، مما يجعل المحتوى المنتشر بحرا شاسعا عرضة للتزييف والإنكار دون حل تقني فعّال.

إن تطور هذه التقنيات بهذه السرعة يدفع العالم لضرورة مناقشتها وآثارها أخلاقيا وسياسيا وقانونيا. ويضع جموع الفنانين ومنتجي الأفلام والحملات الدعائية وصناع المحتوى في تساؤل ما إذا كانت هذه الأدوات قد بدأت فعليا بتغيير المعادلات في مجال صناعتهم، وهل فعلا المؤسسات والأفراد ستتبنى استخدام هذه الأداوت؟ وإلى أي حد قد تبدو هذه الأدوات مخيفة؟ الأسئلة المطروحة ليست تقنية فحسب، بل وجودية حول طبيعة الإبداع والملكية الفكرية ومصداقية الواقع الذي نعيش فيه.

شخصيا، ومن متابعة لصناعة وإنتاج الصور ونشرها والإعلان لها في وسائل التواصل في السلطنة، فأنني أرى بوضوح كيف أن المؤسسات -كبيرها وصغيرها- بدأت تستعين بأدوات الذكاء الاصطناعي بشكل كبير في صنع إعلاناتها ومنشوراتها، وهذا مبرَر بما أنها يوفر الكثير من الجهد والتكلفة والوقت وبجودة اعتيادية مقبولة.

أما عن كونها مخيفة، فأرى شخصيا أنها مخيفة، فحتى قبل أن تحدث هذه الطفرة الأخيرة انخدع الكثيرون -مثلي- بمقاطع تبدو حقيقية وهي ليست كذلك، أسمع أغنية بصوت طلال مداح -مثلا- فتعجبني وأقول ها قد فاجأني الـ«تيك توك» بأغنية لم أسمعها من قبل لطلال، ليتضح لي بعدها أنها ليست أغنيته وأنه لم يسبق له أن غناها أصلا. فكم من المحتوى خدعني وانتهى وآخر سيخدعني؟ وإلى متى سينتظر العالم ليضع ما يقنن وينظم هذه التقنيات وأخلاقياتها، التي باتت تخيف حتى صناعها! والتساؤل الذي يليه، هل يمكن للقوانين والأطر الأخلاقية أن تلحق بسرعة التطور الجنوني لهذه الأدوات، أم أننا ندخل عصرا من الفوضى الرقمية حيث الحقيقة هي أول ضحايا التقدم؟

المعتصم الريامي مطور ومهتم بالتقنية

مقالات مشابهة

  • غوغل تطور البحث الصوتي.. تفاعل ذكي مدعوم بـ«الذكاء الاصطناعي»
  • وضع الذكاء الاصطناعي.. رهان غوغل الجديد لمواجهة منافسي البحث
  • مع قدوم فصل الصيف أهم المزارات السياحية في الإسكندرية التي تجذب المصطافين من كل مكان
  • مش خطر على شغلك| الذكاء الاصطناعي يزيد راتبك بنسبة 56%
  • ميتا تستقطب علماء الذكاء الاصطناعي من المنافسين
  • حماية حسابك تبدأ اليوم.. غوغل تُطلق حملة أمان عالمية!
  • الذكاء الاصطناعي ولصوصية الإبداع
  • الذكاء الاصطناعي “يفكّر” كالبشر دون تدريب!
  • هل عبرنا الوادي الغريب ؟ الذكاء الاصطناعي يحاكينا صوتا وصورة
  • الأراجيف في زمن الذكاء الاصطناعي