كشفت Google يوم الخميس النقاب عن Gemini 1.5 Pro، والذي تصفه الشركة بأنه يقدم "أداء محسنًا بشكل كبير" مقارنة بالطراز السابق. يتبع مسار الذكاء الاصطناعي للشركة - الذي يُنظر إليه داخليًا على أنه بالغ الأهمية لمستقبلها - الكشف عن Gemini 1.0 Ultra الأسبوع الماضي، إلى جانب تغيير العلامة التجارية لـ Bard chatbot (إلى Gemini) لتتماشى مع قدرات النموذج الجديد الأكثر قوة وتنوعًا.

في منشور مدونة إعلاني، يحاول ساندر بيتشاي، الرئيس التنفيذي لشركة Google، وديميس هاسابيس، الرئيس التنفيذي لشركة Google DeepMind، تحقيق التوازن بين طمأنة جمهورهما حول السلامة الأخلاقية للذكاء الاصطناعي مع الترويج لقدرات نماذجهما سريعة التطور. ولخص بيتشاي قائلاً: "تواصل فرقنا دفع حدود أحدث موديلاتنا مع مراعاة السلامة في جوهرها".

تحتاج الشركة إلى التأكيد على سلامة المتشككين في الذكاء الاصطناعي (بما في ذلك أحد المديرين التنفيذيين السابقين لشركة جوجل) والجهات التنظيمية الحكومية. ولكنها تحتاج أيضًا إلى التأكيد على الأداء المتسارع لنماذجها لمطوري الذكاء الاصطناعي والعملاء المحتملين والمستثمرين الذين يشعرون بالقلق من أن الشركة كانت بطيئة جدًا في الاستجابة لنجاح OpenAI مع ChatGPT.

يقول Pichai وHassabis إن Gemini 1.5 Pro يقدم نتائج مماثلة لـ Gemini 1.0 Ultra. ومع ذلك، يعمل Gemini 1.5 على هذا المستوى بكفاءة أكبر، مع انخفاض المتطلبات الحسابية. تتضمن إمكانيات الوسائط المتعددة معالجة النصوص أو الصور أو مقاطع الفيديو أو الصوت أو التعليمات البرمجية. مع تقدم نماذج الذكاء الاصطناعي، ستستمر في تقديم مجموعة أكثر تنوعًا من الإمكانات في مربع مطالبة واحد (مثال حديث آخر هو دمج OpenAI لإنشاء صور DALL-E 3 في ChatGPT).
يمكن لـ Gemini 1.5 Pro أيضًا التعامل مع ما يصل إلى مليون رمز مميز، أو يمكن لوحدات نماذج البيانات التي تعمل بالذكاء الاصطناعي معالجتها في طلب واحد. تقول Google إن Gemini 1.5 Pro يمكنه معالجة أكثر من 700000 كلمة وساعة من الفيديو و11 ساعة من الصوت وقواعد التعليمات البرمجية مع أكثر من 30000 سطر من التعليمات البرمجية. وتقول الشركة إنها "اختبرت بنجاح" إصدارًا يدعم ما يصل إلى 10 ملايين رمز مميز.

تقول الشركة إن Gemini 1.5 Pro يحافظ على دقة عالية في الاستعلامات ذات أعداد الرموز المميزة الأكبر عندما يكون لديه المزيد من البيانات الجديدة ليتعلمها. يُقال أن النموذج أعجب بتقييم Needle In a Haystack. في هذا الاختبار، يقوم المطورون بإدراج جزء صغير من المعلومات داخل كتلة نصية طويلة لمعرفة ما إذا كان نموذج الذكاء الاصطناعي يمكنه التقاطها. قالت Google إن Gemini 1.5 Pro يمكنه العثور على النص المضمن بنسبة 99 بالمائة من الوقت في كتل البيانات التي يصل طولها إلى مليون رمز مميز.

تقول Google إن Gemini 1.5 Pro يمكنه التفكير في تفاصيل مختلفة من نصوص مهمة القمر Apollo 11 المؤلفة من 402 صفحة. بالإضافة إلى ذلك، يمكنه تحليل نقاط الحبكة والأحداث من فيلم صامت مدته 44 دقيقة تم تحميله من بطولة باستر كيتون. كتب هاسابيس: "نظرًا لأن نافذة السياق الطويلة لـ 1.5 Pro هي الأولى من نوعها بين النماذج واسعة النطاق، فإننا نعمل باستمرار على تطوير تقييمات ومعايير جديدة لاختبار قدراتها الجديدة".

تطلق Google برنامج Gemini 1.5 Pro بقدرات 128000 رمز، وهو نفس العدد الذي تصل إليه نماذج GPT-4 الخاصة بـ OpenAI (المعلن عنها علنًا). يقول هاسابيس إن جوجل ستقدم في النهاية مستويات تسعير جديدة تدعم ما يصل إلى مليون استعلام مميز.
يعد Gemini 1.5 Pro أيضًا بارعًا في تعلم مهارات جديدة من المعلومات في مطالبات طويلة - دون ضبط إضافي ("التعلم في السياق"). وفي اختبار قياسي يسمى الترجمة الآلية من كتاب واحد، تعلم النموذج دليلًا نحويًا للغة كالامانج، وهي لغة يتحدث بها أقل من 200 متحدث على مستوى العالم ولم يتم التدريب عليها من قبل. وتقول الشركة إن Gemini 1.5 Pro تعلم الأداء بمستوى مماثل حيث يتعلم الإنسان نفس المحتوى عند ترجمة اللغة الإنجليزية إلى Kalamang.

وفي جزء من الإعلان الذي سيلفت انتباه المطورين، تقول Google إن Gemini 1.5 Pro يمكنه أداء مهام حل المشكلات عبر كتل تعليمات برمجية أطول. كتب هاسابيس: "عندما تُعطى مطالبة تحتوي على أكثر من 100000 سطر من التعليمات البرمجية، يمكنها التفكير بشكل أفضل عبر الأمثلة، واقتراح تعديلات مفيدة وتقديم تفسيرات حول كيفية عمل أجزاء مختلفة من التعليمات البرمجية".

وعلى صعيد الأخلاقيات والسلامة، تقول جوجل إنها تتبع "نفس النهج تجاه المسئولين".

"العمل" الذي استغرقته نماذج Gemini 1.0. ويتضمن ذلك تطوير وتطبيق تقنيات الفريق الأحمر، حيث تعمل مجموعة من المطورين الأخلاقيين في الأساس كمدافعين عن الشيطان، ويختبرون "مجموعة من الأضرار المحتملة". بالإضافة إلى ذلك، تقول الشركة إنها تقوم بتدقيق شديد في مجالات مثل سلامة المحتوى والأضرار التمثيلية. وتقول الشركة إنها تواصل تطوير اختبارات أخلاقية وسلامة جديدة لأدوات الذكاء الاصطناعي الخاصة بها.

تطلق Google إصدار Gemini 1.5 للوصول المبكر للمطورين وعملاء المؤسسات. وتخطط الشركة لجعله متاحًا على نطاق أوسع في نهاية المطاف. يتوفر Gemini 1.0 حاليًا للمستهلكين، إلى جانب الإصدار Pro الذي يكلف 20 دولارًا شهريًا.

المصدر: بوابة الوفد

إقرأ أيضاً:

هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟

وقع نظري مؤخرًا على مقال نشره كاتب أمريكي يُدعى «رونالد بروسر»، وهو أستاذ إدارة الأعمال بجامعة «سان فرانسيسكو». 

نُشر المقال في مجلة «Current Affairs»، وهي مجلة سياسية ثقافية تصدر من الولايات المتحدة الأمريكية، وذلك في 1 ديسمبر 2025. 

تحدّث الكاتبُ في هذا المقال عن أزمة التعليم في ظل وجود الذكاء الاصطناعي، ويرى أن الجامعات الأمريكية عقدت الكثير من الشراكات مع شركات الذكاء الاصطناعي مثل شركة OpenAI، وأن هذا التوجّه يمثّل تهديدًا للتعليم ومستقبله، ويسهم في تفريغه من مضمونه الرئيس؛ بحيث يتحوّل التعليم إلى ما يشبه مسرحية شكلية فارغة من التفكير وصناعة الفكر والمعرفة الحقيقية. 

يرى «بروسر» أن هناك تحوّلا يدفع الطلبة إلى استعمال الذكاء الاصطناعي بشكل مكثّف وغير منضبط في إنجاز الواجبات والأعمال المنوطة إليهم، وكذلك يدفع كثيرا من الأساتذة إلى الاعتماد المفرط عليه في إعداد المحاضرات وعمليات التقويم والتصحيح، وتدفع الجامعات ـ كما يذكر «بروسر» ـ ملايين الدولارات في إطار هذه الشراكات مع شركات الذكاء الاصطناعي مثل OpenAI؛ لتوفير النُّسخ التوليدية التعليمية وتسخيرها للطلبة والأكاديميين. 

بناء على ذلك، تذهب هذه الملايين إلى هذه النظم التوليدية الذكية وشركاتها التقنية، في حين استقطعت الأموال من موازنات الجامعات؛ فأدى إلى إغلاق برامج أكاديمية في تخصصات مثل الفلسفة والاقتصاد والفيزياء والعلوم السياسية، وكذلك إلى الاستغناء عن عدد من أعضاء هيئة التدريس. 

يكشف الكاتبُ في نهاية المطاف أن الجامعات بدأت تتحول من الاستثمار في التعليم ذاته إلى تسليم النظام التعليمي ومنهجيته وعملية التعلّم إلى منصات الذكاء الاصطناعي، وهو ما يقلّص الاعتماد على الكوادر البشرية وعلى المنهجيات النقدية والتفكيرية. 

كذلك يُظهر الكاتبُ الوجهَ المظلم للذكاء الاصطناعي والاستغلال الذي قامت به شركات الذكاء الاصطناعي بالتعاون مع بعض الجامعات ومؤسسات البحث العلمي، ويرتبط هذا الوجه المظلم بعملية فلترة المحتوى الذي يُضخّ في نماذج الذكاء الاصطناعي التوليدية؛ حيث تُكلَّف فئات من البشر ـ في الغالب من الدول الأفريقية الفقيرة ـ بمراجعة هذا المحتوى وتصنيفه وحذف غير الملائم منه، مقابل أجور زهيدة جدا، وذلك بغية صناعة واجهة «آمنة» لهذه النماذج، وتقتضي هذه العملية في الوقت نفسه استهلاك كميات هائلة من الطاقة والمياه لتشغيل مراكز البيانات التي تقوم عليها هذه الأنظمة. 

كما يكشف وجها آخر للاستغلال الرقمي، ضحاياه الطلبة في بعض الجامعات الأمريكية ـ خصوصا المنتمين إلى الطبقات العاملة ـ عبر استغلالهم لصالح مختبرات شركات وادي السيليكون؛ إذ تُبرَم صفقات بملايين الدولارات بين هذه الشركات وبعض الجامعات، دون استشارة الطلبة أو أساتذتهم، في حين لا يحصل الطلبة إلا على الفتات، ويُعامَلون كأنهم فئران تجارب ضمن منظومة رأسمالية غير عادلة. 

أتفقُ مع كثير من النقاط التي جاء بها «رونالد بروسر» في مقاله الذي استعرضنا بعض حيثياته، وأرى أننا نعيش فعلا أزمة حقيقية تُهدِّد التعليم والجامعات، ونحتاج لفهم هذه الأزمة إلى معادلة بسيطة معنية بهذه التحديات مفادها أننا الآن في مرحلة المقاومة، والتي يمكن اعتبارها مرحلة شديدة الأهمية، لأنها ستُفضي في النهاية إما إلى انتصار التقنية أو انتصار الإنسان. 

مع ذلك، لا أعتقد أن هذه المعركة تحتاج إلى كل هذا القدر من التهويل أو الشحن العاطفي، ولا أن نُسبغ عليها طابعا دراميًا مبالغًا فيه. 

كل ما نحتاجه هو أن نفهم طبيعة العلاقة بيننا وبين التقنية، وألا نسمح لهذه العلاقة أن تتحول إلى معركة سنخسرها بكل تأكيد، نظرا إلى عدة عوامل، من بينها أننا نفقد قدرتنا على التكيّف الواعي مع المنتجات التقنية، ولا نحسن توظيفها لصالحنا العلمي والتعليمي؛ فنحوّلها ـ عن قصد أو بدون قصد ـ إلى خصم ضار غير نافع. 

نعود بالزمن قليلا إلى الوراء ـ تحديدا تسعينيات القرن العشرين ـ 

لنتذكّر المواجهة التي حدثت بين المنظومة التعليمية ـ من جامعات وأساتذة وباحثين ومهتمّين بالمعرفة ـ وبين موجة التهديدات الجديدة التي تزّعمها الإنترنت ومحركاته البحثية، وكان أحد أبرز هذه التهديدات ظهور ما يمكن تسميته بثقافة البحث السريع؛ حيث ابتعد الطالب والباحث عن الطرق التقليدية في البحث مثل استعمال الكتب والقراءة المطوّلة والعميقة، ولجأ إلى الإنترنت والبحث عن المعلومات في غضون ساعات قليلة، والاكتفاء بتلخيص الدراسات والكتب. 

ولّد هذا التحوّل مشكلات أخرى، من بينها تفشّي ظاهرة الانتحال العلمي والسرقات الفكرية، ولكن، لم تستمر هذه المشكلة لفترة طويلة؛ فحُلّت تدريجيا بعد سنوات، وتحديدا مع ظهور أدوات قادرة على كشف حالات الانتحال والسرقة العلمية، وظهور أنظمة تأقلمية ومعايير وقوانين تعليمية وأكاديمية عملت على إعادة تموضع الإنترنت داخل المنظومة التعليمية، وهكذا خرج النظام التعليمي والجامعات من تلك المواجهة رابحًا في بعض أجزائه وخاسرًا في أجزاء أخرى. 

لا أتصور أن مشكلتنا الحالية مع الذكاء الاصطناعي تشبه تماما المشكلة السابقة التي أحدثها ظهور الإنترنت ومحركات البحث؛ فكانت التحديات السابقة -نسبيا- أسهل، وكان من الممكن التعامل معها واحتواؤها في غضون سنوات قصيرة. أما المشكلة الراهنة مع الذكاء الاصطناعي، فتكمن في سرعته التطورية الهائلة التي لا نستطيع حتى أن نتحقق من مداها أو نتنبّأ بوتيرة قدراتها الإبداعية؛ فنجد، مثلا ، أنه في غضون سنتين أو ثلاث فقط انتقل الذكاء الاصطناعي التوليدي مثل«ChatGPT» من مرحلته البدائية إلى مرحلته المتقدمة الحالية، تجاوز فيها في بعض الزوايا قدرات الإنسان العادي في المهارات اللغوية، وأصبح يشكّل تحديًا حقيقيًا كما أشرنا في مقالات سابقة. 

فيما يتعلّق بالتعليم والجامعات، وكما أشار الكاتب في المقال الذي استعرضناه؛ فنحن أمام مشكلة حقيقية تحتاج إلى فهم عميق وإعادة ترتيب لأولوياتنا التعليمية. 

نقترح أولا ألا نتجاوز الحد المسموح والمقبول في استعمال الذكاء الاصطناعي في التعليم؛ فيجب أن تكون هناك حالة توازن واعية في التعامل مع أنظمة الذكاء الاصطناعي التوليدية في الجامعات، وكذلك المدارس. 

وبصفتي أكاديميًا، أرى من الضروري أن نقنن استعمال الذكاء الاصطناعي داخل الجامعات عبر وضع معايير وقوانين واضحة، والسعي في الوقت ذاته إلى تطوير أدوات قادرة على كشف حالات الانتحال والسرقات العلمية المرتبطة باستعمال هذه التقنيات والنماذج الذكية، رغم صعوبة ذلك في المرحلة الحالية، ولكن من المرجّح أن يصبح الأمر أكثر يسرا في المستقبل القريب. 

رغم ذلك، فلا يعني أنه ينبغي أن نمنع استعمال الذكاء الاصطناعي منعًا تامًا؛ فجلّ ما نحتاجه أن نُشرف عليه ونوجّهه ضمن حدود معيّنة؛ لتكون في حدود تعين على صناعة الإبداع البشري؛ فيمكننا أن نوجّه الذكاءَ الاصطناعي في تنمية مهارات الحوار والتفكير والتحليل لدى الطلبة إذا استُعملَ بطريقة تربوية صحيحة. 

ولكن في المقابل يجب أن تُشدَّد القوانين والعقوبات المتصلة بحالات الانتحال والاعتماد الكلّي على النماذج التوليدية سواء في مخرجات العملية التعليمية أو في البحوث العلمية. 

كذلك من الضروري أن نُعيد التوازن إلى دور أعضاء هيئة التدريس في الجامعات؛ فمن غير المعقول أن نترك صناعة المحتوى التعليمي مرهونة بالكامل للذكاء الاصطناعي، في حين يتراجع دور الأكاديمي وإبداعه الذي يمارس التفكير والنقد والإضافة المعرفية من عنده. 

على صعيد آخر، أظهرت دراسات حديثة التأثير السلبي للاستعمال المفرط للذكاء الاصطناعي والاعتماد عليه على الدماغ البشري بشكل فسيولوجي مباشر؛ فيمكن أن يدخله في حالة من الضمور الوظيفي مع الزمن، خصوصا حال تخلّى الإنسان عن ممارسة التفكير لصالح الخوارزمية. 

 د. معمر بن علي التوبي أكاديمي وباحث عُماني 

مقالات مشابهة

  • نيويورك تضع قواعد جديدة للذكاء الاصطناعي في الإعلانات والفنون
  • القمر الاصطناعي «813».. نموذج للتكامل العربي في بناء وتطوير المشاريع الفضائية
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • جوجل تُطلق Gemini للآيفون والآيباد.. الذكاء الاصطناعي يصل متصفحك
  • جوجل تدمج الذكاء الاصطناعي في كروم على آيفون وآيباد
  • الذكاء الاصطناعي يحل مشكلة السمع في الضوضاء
  • حكماء المسلمين في إندونيسيا ينظِّم ندوة وطنيَّة لمناقشة سبل تعزيز الاستخدام الأخلاقي للذكاء الاصطناعي
  • تحذير من ضعف دقة الذكاء الاصطناعي لقياس النبض عند ارتفاعه