«غوغل» تفتح حقبة جديدة من البحث الذكي وصنع الفيديوهات.. وتحذّر من هجوم احتيالي خطير!
تاريخ النشر: 21st, May 2025 GMT
مع تسارع التطور التكنولوجي، تُحدث شركة “غوغل” نقلة نوعية في عالم البحث على الإنترنت، بإطلاق موجة جديدة من تقنيات الذكاء الاصطناعي التي تعيد تشكيل طريقة وصول المستخدمين إلى المعلومات وتؤثر بشكل مباشر على حركة المرور إلى مواقع الويب.
وخلال مؤتمرها السنوي للمطورين (Google I/O 2025)، كشفت غوغل عن إطلاق خيار جديد تحت اسم “وضع الذكاء الاصطناعي” (AI Mode)، والذي يتيح للمستخدمين التفاعل مع محرك البحث بطريقة أقرب إلى الحوار مع خبير ذكي قادر على تقديم إجابات معمقة وسريعة لمجموعة واسعة من الأسئلة.
وبدأت الشركة بطرح هذه الميزة لجميع المستخدمين في الولايات المتحدة، بعد أقل من ثلاثة أشهر على اختبارها ضمن مجموعة محدودة.
كما أعلنت غوغل عن دمج نموذجها الأحدث Gemini 2.5 في خوارزميات البحث، في خطوة تعزز دقة الاستجابات وقدرتها على التعامل مع استفسارات أكثر تعقيداً وطولاً، وهو ما يتماشى مع الاتجاه الحالي للمستخدمين نحو البحث المتقدم.
ومن أبرز الأدوات التي أطلقتها الشركة سابقاً، ميزة “الملخصات المدعومة بالذكاء الاصطناعي” (AI Overviews)، والتي أصبحت تظهر في أعلى نتائج البحث، متجاوزة الترتيب التقليدي للروابط، ويستخدمها اليوم نحو 1.5 مليار مستخدم.
كما تخطط غوغل أيضاً لاختبار مزايا جديدة قريباً، من بينها: قدرة الذكاء الاصطناعي على شراء تذاكر الحفلات أو حجز المطاعم تلقائياً، تنفيذ عمليات بحث من خلال الفيديو المباشر، تطوير أدوات بحث معمق للمواضيع المعقدة، عرض تحليلات بيانية متقدمة للبيانات الرياضية والمالية.
وفي مفاجأة أخرى، كشفت الشركة عن نيتها العودة إلى سوق النظارات الذكية، من خلال منتج جديد يعمل بنظام “أندرويد إكس آر” (Android XR)، ويتضمن كاميرا بدون استخدام اليدين ومساعداً صوتياً ذكياً، مما يشير إلى عودة قوية لغوغل إلى ميدان الأجهزة الذكية القابلة للارتداء، بعد سنوات من انسحابها من هذا القطاع.
وقال الرئيس التنفيذي لغوغل، ساندار بيتشاي، إن “كل هذا التقدم يعكس دخولنا مرحلة جديدة من تحول المنصات إلى الذكاء الاصطناعي، حيث تحولت عقود من الأبحاث إلى واقع ملموس بين أيدي المستخدمين حول العالم”.
هذا التحول، الذي بدأ قبل نحو عام، من شأنه أن يعيد تشكيل تجربة البحث بشكل جذري، وسط جدل عالمي متزايد حول مستقبل محركات البحث، خصوصاً مع هيمنة غوغل على هذا السوق، ومخاوف من تأثيرات هذا التوجه على خصوصية المستخدمين والمحتوى الرقمي المستقل.
وتأتي هذه الخطوة ضمن تحول استراتيجي أطلقته غوغل منذ عام، يهدف إلى دمج الذكاء الاصطناعي في صميم تجربة البحث، استجابة لتغير سلوك المستخدمين وتزايد الاعتماد على تقنيات المعالجة الذكية.
وتواجه غوغل في هذا المسار تحديات تتعلق بالتوازن بين تقديم محتوى مخصص وسريع، وبين حماية الخصوصية والحفاظ على تنوع المصادر الرقمية، خاصة مع ازدياد القلق من تأثير هذه المزايا على حركة المرور إلى المواقع المستقلة وتوازن سوق المعلومات عبر الإنترنت.
غوغل تكشف عن نموذج Veo 3 لصناعة الفيديوهات بالذكاء الاصطناعي خلال مؤتمر I/O 2025
كشفت شركة غوغل، خلال فعاليات مؤتمر I/O 2025، عن نموذجها الجديد Veo 3 الذي يمثل نقلة نوعية في مجال إنتاج الفيديو باستخدام الذكاء الاصطناعي، بقدرات محسّنة تشمل توليد مقاطع مرئية وصوتية متزامنة بدقة عالية.
ويتميز Veo 3 عن النسخة السابقة Veo 2 بإمكانية إنشاء مؤثرات صوتية وبيئات صوتية متكاملة، بما في ذلك الضوضاء الخلفية والحوار، مع مزامنة دقيقة مع الصور، ما يتيح إنتاج فيديوهات ذات جودة احترافية.
ورغم أن غوغل لم تفصح عن مصادر البيانات التي استخدمتها لتدريب النموذج، تشير تسريبات إلى أن منصة يوتيوب كانت إحدى تلك المصادر، خصوصاً بعد تلميحات سابقة من فريق DeepMind بإمكانية الاعتماد على محتوى المنصة.
ولتقليل مخاطر التزييف العميق، زوّدت غوغل النموذج بتقنية SynthID التي تضيف علامات مائية غير مرئية في كل إطار، ما يتيح التعرّف بسهولة على الفيديوهات المنتجة بالذكاء الاصطناعي.
وسيكون Veo 3 متاحاً ضمن تطبيق Gemini لمشتركي باقة “AI Ultra” التي تبلغ كلفتها 250 دولاراً شهرياً.
“غوغل” تحذر مستخدمي “جي ميل” من هجوم احتيالي خطير يستهدف حساباتهم
أطلقت شركة “غوغل” تحذيرًا عاجلًا إلى مستخدمي خدمة البريد الإلكتروني “جي ميل”، الذين يزيد عددهم عن 1.8 مليار مستخدم حول العالم، من هجوم إلكتروني جديد وصفته بـ”الخطير”، يستغل رسائل بريد إلكتروني احتيالية صُممت لخداع المستخدمين وسرقة بياناتهم.
وأوضحت الشركة أن الهجوم يُعرف باسم “هجوم البريد الإلكتروني من دون رد” (no-reply email attack)، حيث تصل الرسالة الضارة من عنوان يبدو رسميًا هو: no-reply@accounts.google.com، وتزعم زورًا أن “غوغل” تلقت أمرًا قضائيًا يُلزمها بالكشف عن محتوى حساب المستخدم، ما يدفع البعض للنقر على رابط مرفق يُحيل إلى صفحة دعم مزيفة تُشبه واجهات “غوغل” الرسمية.
وأكدت “غوغل” أن هذه الرسائل زائفة بالكامل، وتهدف إلى سرقة المعلومات الشخصية، مشيرة إلى أن النقر على الرابط المرفق قد يمنح المحتالين صلاحيات جزئية للوصول إلى حساب المستخدم، بما في ذلك قراءة الرسائل أو تصفح الملفات المخزنة. كما أن تحميل المستندات الزائفة قد يؤدي إلى إصابة الجهاز ببرمجيات خبيثة تسرق كلمات المرور أو البيانات المصرفية.
وأشار المطور التقني “نك جونسون”، الذي عمل سابقًا في “غوغل” ومشروع “إيثيريوم” للعملات المشفرة، إلى أن القراصنة يستغلون أدوات شرعية ضمن منظومة “غوغل” نفسها، أبرزها أداة Google OAuth التي تتيح للتطبيقات الخارجية الوصول إلى الحسابات عند منحها الإذن. ويستخدم المهاجمون صفحات مزيفة مستضافة على موقع “sites.google.com”، ما يمنح الهجوم طابعًا موثوقًا يخدع المستخدمين بسهولة.
وأوصت “غوغل” المستخدمين بمراجعة إعدادات الأمان في حساباتهم، واتباع خطوات الحماية الحديثة، أبرزها استبدال نظام التحقق بخطوتين (2FA) بمفاتيح المرور (passkeys)، وهي تقنية حديثة توفّر مصادقة آمنة عبر بصمة الإصبع أو مسح الوجه أو رمز PIN، دون الحاجة إلى كلمات مرور.
ويعد هذا التحذير من أبرز التنبيهات الأمنية الصادرة عن “غوغل” في الأشهر الأخيرة، ويعكس تزايد وتطور أساليب الاحتيال الإلكتروني التي تستهدف حتى أكثر الخدمات استخدامًا على الإنترنت.
المصدر: عين ليبيا
كلمات دلالية: الذكاء الاصطناعي تقنيات الذكاء الاصطناعي شركة غوغل الذکاء الاصطناعی
إقرأ أيضاً:
كم من الأطفال يجب أن يَـقـتُـل الذكاء الاصطناعي؟
في الثامن والعشرين من فبراير 2024، أقـدَمَ سيويل سيتزر الثالث، صبي ذو أربعة عشر ربيعا من فلوريدا، على قتل نفسه تحت إلحاح من إحدى شخصيات الذكاء الاصطناعي الـمُـحاكية للحياة والمولدة بواسطة Character.AI، المنصة التي يُـقال إنها تستضيف أيضا روبوتات دردشة الذكاء الاصطناعي الداعمة لاختلال فقدان الشهية والتي تشجع على أنماط مُـخـتَـلّة في تناول الطعام بين الشباب. من الواضح أن الحاجة ماسة إلى اتخاذ تدابير أكثر قوة لحماية الأطفال والشباب من الذكاء الاصطناعي.
بطبيعة الحال، حتى من الناحية الأخلاقية البحتة، ينطوي الذكاء الاصطناعي على إمكانات إيجابية هائلة، من تعزيز صحة الإنسان وكرامته إلى تحسين الاستدامة والتعليم بين الفئات السكانية المهمشة. لكن هذه الفوائد الموعودة ليست مبررا للاستخفاف بالمخاطر الأخلاقية والتكاليف الواقعية أو تجاهلها. فكل انتهاك لحقوق الإنسان يجب أن يُنظر إليه على أنه غير مقبول أخلاقيا.
فإذا تسبب روبوت دردشة يعمل بالذكاء الاصطناعي ويحاكي الحياة في وفاة مراهق، فلا يجوز لنا أن نعتبر قدرة الذكاء الاصطناعي على الاضطلاع بدور في تطوير الأبحاث الطبية تعويضا عن ذلك. مأساة سيتزر ليست حالة معزولة. ففي ديسمبر الماضي، رفعت عائلتان في تكساس دعوى قضائية ضد Character.AI وداعمتها المالية، شركة جوجل، زاعمة أن روبوتات الدردشة الآلية التابعة للمنصة استغلت أطفالهم في سن المدرسة جنسيا وعاطفيا إلى الحد الذي أسفر عن وقوع حالات إيذاء النفس والعنف. لقد شاهدنا هذا الفيلم من قبل، فقد ضحينا بالفعل بجيل من الأطفال والمراهقين على مذبح شركات التواصل الاجتماعي التي تستفيد من الإدمان على منصاتها. لم ننتبه إلى الأضرار الاجتماعية والنفسية التي تسببها «وسائط التواصل غير الاجتماعي» إلا ببطء شديد.
والآن، بدأت بلدان عديدة تحظر أو تقيد الوصول إلى هذه المنصات، ويطالب الشباب أنفسهم بضوابط تنظيمية أقوى.
ولكن لا يمكننا الانتظار لكبح جماح قوى التلاعب الكامنة في الذكاء الاصطناعي. فبسبب الكميات الهائلة من البيانات الشخصية التي جمعتها منا صناعة التكنولوجيا، بات بوسع أولئك الذين يعملون على بناء منصات مثل Character.AI إنشاء خوارزميات تَـعرِفنا بشكل أفضل مما نعرف أنفسنا. الواقع إن إمكانية الاستغلال عميقة. فالذكاء الاصطناعي يعلم على وجه التحديد أي الأزرار التي ينبغي له الضغط عليها لاستغلال رغباتنا، أو لحملنا على التصويت بطريقة معينة. كانت روبوتات الدردشة المؤيدة لفقدان الشهية على منصة Character.AI مجرد المثال الأحدث والأكثر فظاعة. ولا يوجد أي سبب وجيه قد يمنعنا من حظرها على الفور. لكن الوقت ينفد سريعا، لأن نماذج الذكاء الاصطناعي التوليدي تتطور بشكل أسرع من المتوقع ــ وهي تتسارع في عموم الأمر في الاتجاه الخطأ. يواصل «الأب الروحي للذكاء الاصطناعي»، عالم العلوم الإدراكية الحائز على جائزة نوبل جيفري هينتون، التحذير من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشر: «أخشى أن اليد الخفية لن تُـبقي علينا سالمين. وعلى هذا فإن ترك الأمر برمته لدافع الربح الذي يحرك الشركات الكبرى لن يكون كافيا للتأكد من تطويرها إياه بأمان. الشيء الوحيد الذي قد يجبر هذه الشركات الكبرى على إجراء مزيد من الأبحاث حول السلامة هو التنظيم الحكومي».
ونظرا لفشل شركات التكنولوجيا الكبرى المستمر في الالتزام بالمعايير الأخلاقية، فمن الحماقة أن نتوقع من هذه الشركات أن تضبط نفسها بنفسها. في عام 2024، ضخت شركة جوجل استثمارات قيمتها 2.7 مليار دولار في تطبيق Character.AI، على الرغم من مشاكله المعروفة. ولكن على الرغم من الاحتياج الواضح إلى التنظيم، فإن الذكاء الاصطناعي ظاهرة عالمية، وهذا يعني أننا يجب أن نسعى جاهدين إلى وضع تنظيم عالمي، يرتكز على آلية إنفاذ عالمية جديدة، مثل وكالة دولية للأنظمة القائمة على البيانات (IDA) في الأمم المتحدة، كما اقترحتُ شخصيا.
إن كون الشيء في حكم الممكن لا يعني أنه مرغوب. يتحمل البشر مسؤولية تحديد أي التكنولوجيات والإبداعات وأشكال التقدم يجب تحقيقها وتوسيع نطاقها، وأيها لا ينبغي له أن يتحقق. وتقع على عاتقنا مسؤولية تصميم، وإنتاج، واستخدام، وإدارة الذكاء الاصطناعي بطرق تحترم حقوق الإنسان وتسهل تحقيق مستقبل أكثر استدامة للبشرية والكوكب. يكاد يكون من المؤكد أن سيويل كان ليظل على قيد الحياة لو كنا نعتمد على تنظيم عالمي لتعزيز «الذكاء الاصطناعي» القائم على حقوق الإنسان، ولو كنا أنشأنا مؤسسة عالمية لمراقبة الإبداعات في هذا المجال. يستلزم ضمان احترام حقوق الإنسان وحقوق الطفل حوكمة دورة حياة الأنظمة التكنولوجية بأكملها، بدءا من التصميم والتطوير إلى الإنتاج، والتوزيع، والاستخدام. وبما أننا نعلم بالفعل أن الذكاء الاصطناعي من الممكن أن يَـقـتُـل، فليس لدينا أي عذر يسمح لنا بالبقاء مكتوفي الأيدي في حين يستمر تقدم التكنولوجيا، مع إطلاق مزيد من النماذج غير المنظمة للجمهور كل شهر. مهما كانت الفوائد التي قد توفرها هذه التكنولوجيات يوما ما، فإنها لن تكون قادرة أبدا على التعويض عن الخسارة التي عانى منها بالفعل جميع من أحبوا سيويل.
بيتر ج. كيرششلاغر، أستاذ الأخلاق ومدير معهد الأخلاقيات الاجتماعية (ISE) في جامعة لوسيرن، وأستاذ زائر في المعهد الفدرالي السويسري للتكنولوجيا في زيورخ (ETH Zurich).