"جيما" تورط جوجل في أزمة سياسية
تاريخ النشر: 4th, November 2025 GMT
أعلنت شركة جوجل سحب نموذج الذكاء الاصطناعي المعروف باسم "جيما" من منصة AI Studio، بعد أن اتُّهم بإطلاق مزاعم كاذبة وخطيرة ضد السيناتور الجمهورية مارشا بلاكبيرن، عضو مجلس الشيوخ عن ولاية تينيسي.
القضية بدأت عندما وُجه سؤال إلى العارضة الافتراضية "جيما" حول ما إذا كانت السيناتور بلاكبيرن قد اتُّهمت يومًا بجريمة اغتصاب، فجاء الرد بالإيجاب، مصحوبًا بروابط ومقالات زائفة تدّعي أن السيناتور تورطت في علاقة غير رضائية مع أحد رجال الشرطة خلال حملتها الانتخابية.
                
      
				
إلا أن جميع هذه الادعاءات اتضح لاحقًا أنها ملفقة بالكامل. فبحسب ما نقلته صحيفة "ذا فيرج"، لم تخض مارشا بلاكبيرن أي حملة انتخابية لمجلس الشيوخ في عام 1987 كما زعمت "جيما"، إذ لم تترشح إلا بعد أكثر من عقد من ذلك التاريخ، وتحديدًا في عام 1998. كما لم تُوجّه إليها في أي وقت تهم تتعلق بسوء سلوك أو اعتداء جنسي.
في أعقاب الحادثة، أرسلت بلاكبيرن رسالة رسمية إلى الرئيس التنفيذي لشركة جوجل، سوندار بيتشاي، تتهم فيها الشركة بالتشهير المتعمّد عبر أحد نماذجها. وجاء في نص الرسالة: "الروابط التي قدمها نموذج الذكاء الاصطناعي تؤدي إلى صفحات غير موجودة أو مقالات لا علاقة لها بالموضوع. لم يُوجّه إليّ أي اتهام من هذا النوع، ولا وجود لأي شخص أو خبر يدعم هذه المزاعم. هذا ليس مجرد خطأ تقني أو هلوسة برمجية، بل تشهير صريح تُنتجه وتوزّعه خوارزمية تابعة لجوجل".
ردّ الشركة لم يتأخر كثيرًا، إذ أعلنت جوجل عن سحب النموذج مؤقتًا من منصة AI Studio لتجنب أي التباس بشأن استخدامه، موضحة أن "جيما" لم تُصمم للتفاعل مع الجمهور العام أو للإجابة على أسئلة واقعية. وأكدت أن النموذج مخصص في الأساس للمطورين والباحثين، حيث يُستخدم في مجالات محددة مثل البرمجة والطب والتعليم الآلي، وليس كمنصة دردشة عامة مثل Bard أو Gemini.
كما أوضحت جوجل أن الخطأ حدث نتيجة إساءة استخدام النموذج خارج نطاقه التقني المقصود، مشددة على أن النسخة المطروحة للمطورين عبر واجهة برمجة التطبيقات (API) ستظل متاحة، في حين تم تعليق عمل "جيما" داخل AI Studio لتجنب تكرار مثل هذه الأخطاء.
من جانبها، ذهبت السيناتور بلاكبيرن إلى أبعد من مجرد المطالبة بالتصحيح، إذ اتهمت جوجل بانتهاج "نمط متواصل من التحيز ضد الشخصيات المحافظة" داخل نماذجها الذكية، مشيرة إلى أن هذه الحادثة ليست الأولى التي تُظهر ما وصفته بـ"العداء السياسي المبطّن في أدوات الذكاء الاصطناعي".
غير أن الخبراء في مجال الذكاء الاصطناعي يشيرون إلى أن ما حدث يعكس واحدة من أبرز مشكلات هذه النماذج المعقدة، وهي ظاهرة "الهلوسة الرقمية" — أي توليد معلومات تبدو واقعية لكنها مختلقة تمامًا. يقول محللون إن الذكاء الاصطناعي لا يملك نية أو وعيًا أخلاقيًا، وإنما يعتمد على الأنماط النصية التي تدرب عليها، ما يجعله عرضة لابتكار سيناريوهات زائفة في حال غياب السياق أو وجود بيانات مضللة ضمن مصادر التدريب.
القضية سلطت الضوء مجددًا على التحديات القانونية والأخلاقية المرتبطة بالذكاء الاصطناعي، خصوصًا في ما يتعلق بالمسؤولية عن المحتوى المضلل أو التشهيري الذي قد ينتجه. كما أثارت أسئلة حول مدى قدرة الشركات التقنية الكبرى على ضبط نماذجها ومنع استخدامها في سياقات حساسة قد تضر بالأفراد أو تشوّه السمعة العامة.
وبينما تؤكد جوجل أنها تعمل على تعزيز آليات الأمان والتحقق داخل أنظمتها، يرى المراقبون أن هذه الواقعة تمثل جرس إنذار جديد لصناعة الذكاء الاصطناعي بأكملها، التي تقف أمام اختبار صعب بين حرية الابتكار وضرورة ضبط المخاطر الأخلاقية.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يحدث ثورة في المراقبة بالفيديو
على الرغم من كل التقدم المحرز في مجال الذكاء الاصطناعي، لا تزال معظم أنظمة المراقبة بالفيديو تفشل في التعرف على السياق في ظروف العالم الحقيقي. فغالبية الكاميرات قادرة على التقاط لقطات في الوقت الفوري، لكنها تواجه صعوبة في تفسيرها. وتُعد هذه المشكلة مصدر قلق متزايد لمصممي المدن الذكية الذين يعتمدون على الذكاء الاصطناعي للحفاظ على سلامة الأفراد والممتلكات.
تعتقد شركة "لومانا"، المتخصصة في أنظمة المراقبة بالفيديو المدعومة بالذكاء الاصطناعي، أن الخلل في هذه الأنظمة يكمن في أساسيات بنائها.
يقول جوردان شو، نائب رئيس قسم التسويق في لومانا "صُممت منصات الفيديو التقليدية منذ عقود لتسجيل اللقطات، وليس لتفسيرها"، مضيفا أن"إضافة الذكاء الاصطناعي إلى بنية تحتية قديمة يشبه وضع شريحة ذكية في هاتف أرضي قديم دوار. قد يعمل، لكنه لن يكون ذكيًا أو موثوقًا بما يكفي لفهم ما يتم التقاطه أو مساعدة الفرق على اتخاذ قرارات أكثر ذكاءً في الوقت الفعلي".
عواقب وخيمة
عندما تدمج أنظمة المراقبة بالفيديو التقليدية الذكاء الاصطناعي في بنيتها التحتية، تنشأ تنبيهات خاطئة ومشاكل في الأداء. ولا تُعد التنبيهات والإنذارات الخاطئة مجرد أعطال فنية، بل هي مخاطر يمكن أن تكون لها عواقب وخيمة. يشير شو إلى حالة حديثة حيث قام نظام مراقبة في مدرسة، يستخدم ذكاء اصطناعيا للكشف عن الأسلحة، بتحديد جسم غير ضار على أنه سلاح، مما أدى إلى استجابة غير ضرورية من الشرطة.
ويؤكد شو "كل خطأ، سواء كان حدثًا لم يتم رصده أو تنبيهًا خاطئًا، يؤدي إلى استجابة غير صحيحة، ويقوض الثقة. إنه يهدر الوقت والمال، ويمكن أن يسبب صدمة للأشخاص الذين لم يرتكبوا أي خطأ".
بناء أساس أكثر ذكاءً
بدلاً من دمج الذكاء الاصطناعي مع أطر عمل أنظمة المراقبة بالفيديو القديمة، أعادت "لومانا" بناء البنية التحتية نفسها باستخدام منصة متكاملة تجمع بين أجهزة وبرامج المراقبة بالفيديو الحديثة والذكاء الاصطناعي الخاص بها. يربط تصميم الشركة السحابي الهجين أي كاميرا أمنية بمعالجات مدعومة بوحدات معالجة الرسومات ونماذج الذكاء الاصطناعي التكيفية التي تعمل على الحافة، مما يعني أنها تقع في أقرب مكان ممكن من مكان التقاط اللقطات.
اقرأ أيضا... كيف يمكن للذكاء الاصطناعي دعم الأطباء دون تقويض خبراتهم؟
يقول شو إن النتيجة هي أداء أسرع وتحليل أكثر دقة. تصبح كل كاميرا جهازًا للتعلم المستمر يتحسن بمرور الوقت، ويفهم الحركة والسلوك والأنماط الفريدة لبيئتها. 
ويولي تصميم شركة Lumana، الأولوية للخصوصية. جميع البيانات مشفرة، وتخضع لضوابط الوصول، ومتوافقة مع المعايير. يمكن للعملاء تعطيل تتبع الوجه أو القياسات الحيوية إذا رغبوا في ذلك. وقال شو "ينصب تركيزنا على الإجراءات، وليس على الهويات".
الاستخدام في العالم الحقيقي
نشرت أنظمة Lumana في العديد من الصناعات. أحد أبرز مشاريعها هو مع شركة لتصنيع التغليف تعمل على مدار 24 ساعة وتستخدم كاميرات المراقبة لمراقبة السلامة والكفاءة التشغيلية في منشآتها.
قبل نشر نظام Lumana، كانت الكاميرات تسجل الحوادث فقط لمراجعتها لاحقًا، مما أدى إلى تفويت بعض الأحداث والاستجابة المتأخرة للحوادث. بعد التحديث، أصبح بإمكان نفس الأجهزة الكشف عن الحركات غير الآمنة أو أعطال المعدات أو اختناقات الإنتاج في الوقت الفعلي. وأفادت الشركة بتحسن سرعة التحقيقات بنسبة 90% وتلقي التنبيهات في أقل من ثانية، مما أدى إلى تحسين الاستجابة لحوادث السلامة بشكل كبير، دون الحاجة إلى استبدال أي كاميرا.
في تطبيق آخر، قامت إحدى شركات بيع البقالة بالتجزئة بدمج الذكاء الاصطناعي من Lumana في شبكة الكاميرات الحالية لديها لتحديد الأنشطة غير المعتادة في نقاط البيع. وقد ساهم النظام في تقليل الفاقد وتحسين مساءلة الموظفين من خلال تقديم أمثلة واقعية لانتهاكات السياسات.
بعيدًا عن قطاع التصنيع، استُخدم نظام "لومانا" في الفعاليات العامة الكبيرة، وفي المطاعم، وفي العمليات البلدية. في المدن، يساعد النظام في تحديد عمليات إلقاء النفايات غير القانونية والحرائق. وفي سلاسل المطاعم السريعة، يراقب سلامة المطبخ ومعالجة الطعام.
ويحذر المحللون من أنه مع تولي الذكاء الاصطناعي المزيد من مهام اتخاذ القرار، يجب أن تظل الأنظمة "قابلة للتدقيق وشفافة وخالية من التحيز".
وقال شو إن المرحلة التالية من تطوير "لومانا" تهدف إلى الانتقال من الكشف والفهم إلى التنبؤ.
وأضاف "سيكون التطور القادم لفيديوهات الذكاء الاصطناعي حول الاستنتاج المنطقي. إن القدرة على فهم السياق في الوقت الفعلي، وتقديم رؤى عملية ومؤثرة من بيانات الفيديو المجمعة، ستغير طريقة تفكيرنا في السلامة والعمليات والوعي".
بالنسبة لشركة لومانا، لا يقتصر الهدف على تعليم الذكاء الاصطناعي كيفية الرؤية بشكل أفضل فحسب، بل يمتد ليشمل مساعدته على فهم ما يراه وتمكين المستخدمين، الذين يعتمدون على بيانات الفيديو هذه، من اتخاذ قرارات أذكى وأسرع.
مصطفى أوفى (أبوظبي)