ذكاء Grok الاصطناعي يدخل بقوة في مشروع دوجكوين لإيلون ماسك.. والمخاوف تتصاعد
تاريخ النشر: 23rd, May 2025 GMT
كشفت وكالة “رويترز” عن توسيع إدارة الكفاءة الحكومية (DOGE)، وهي وحدة أنشأها إيلون ماسك استخدام أداة الذكاء الاصطناعي Grok، داخل عدد من الوكالات الفيدرالية الأمريكية، بما في ذلك وزارة الأمن الداخلي (DHS)، ما أثار موجة من الانتقادات الحادة من خبراء الخصوصية والأخلاقيات القانونية، وذلك في خطوة تثير جدلًا جديدًا حول العلاقة المتشابكة بين التكنولوجيا العملاقة والحكومات.
Grok هي أداة ذكاء اصطناعي توليدي طورتها شركة xAI المملوكة لإيلون ماسك، وتُستخدم لمعالجة وتحليل البيانات. لكن بحسب مصادر مطلعة تحدثت لرويترز، فقد تم تخصيص نسخة من Grok لاستخدامها داخل مؤسسات حكومية أمريكية لتحسين معالجة البيانات والتقارير.
والمثير للجدل أن بعض هذه الوكالات وعلى رأسها DHS بدأت باستخدام الأداة رغم عدم حصولها على موافقات رسمية، ما يطرح تساؤلات جدية حول مدى قانونية هذه الخطوة.
يحذر الخبراء من أن إدخال بيانات حكومية حساسة إلى Grok؛ قد يؤدي إلى خرق قوانين الخصوصية الفيدرالية علاوة على إتاحة بيانات لملايين الأمريكيين لشركة خاصة يملكها ماسك، بالاضافة إلى منح xAI أفضلية غير عادلة في سوق الذكاء الاصطناعي عبر الوصول إلى بيانات حكومية ضخمة.
وبجانب ذلك، هناك تحذير بشأن إمكانية استخدام تلك البيانات لاحقًا في تدريب النماذج التجارية لـ xAI، دون رقابة كافية.
جدير بالذكر أن سياسة الخصوصية لشركة xAI تنص صراحةً على إمكانية "مراقبة المستخدمين لأغراض تجارية محددة"، ما يعزز مخاوف المدافعين عن الخصوصية.
وزارة الأمن الداخلي تردنفت وزارة الأمن الداخلي أن تكون قد تعرضت لـ "ضغوط مباشرة" من DOGE لاستخدام Grok، لكنها لم تُنكر وجود تعاون مع هذه الإدارة.
ويتصاعد القلق من أن تتحول وكالات الدولة إلى منصات اختبار غير معلنة لأدوات تكنولوجية تجارية، في ظل عدم وجود إطار قانوني شفاف يضبط هذا النوع من الشراكات.
هل التاريخ يعيد نفسه؟ما يحدث الآن يُعيد إلى الأذهان العلاقة الوثيقة التي جمعت إريك شميدت، المدير التنفيذي السابق لجوجل، بالرئيس الأمريكي الأسبق باراك أوباما، والتي أثارت انتقادات واسعة حينها رغم عدم ثبوت تضارب قانوني.
اليوم، تتكرر المخاوف نفسها ولكن في سياق أكثر حساسية – نظرًا للانتشار الواسع للذكاء الاصطناعي وقدرته على التأثير في صناعة القرار الحكومي، والأمن القومي، وحقوق المواطنين الرقمية.
وقد يكون ما يجري بين DOGE وأداة Grok، مؤشرًا على تحول أعمق في العلاقة بين الدولة والتكنولوجيا، من شراكات خجولة إلى تحالفات خطرة تتطلب رقابة صارمة وإطارًا قانونيًا جديدًا.
المصدر: صدى البلد
كلمات دلالية: الذكاء الاصطناعي أداة الذكاء الاصطناعي الذکاء الاصطناعی
إقرأ أيضاً:
روسيا ومؤامرة تسميم ذكاء الغرب الاصطناعي
في شهرمارس/ آذار، نشرت شركة NewsGuard، المختصة في تتبع المعلومات المضللة، تقريرًا زعمت فيه أن أدوات الذكاء الاصطناعي التوليدي- مثل ChatGPT- تُضخِّم الدعاية الروسية المضلِّلة.
وقد اختبرت NewsGuard أشهر الدردشات الذكية باستخدام تعليمات (prompts) مستندة إلى مقالات من شبكة "برافدا" (Pravda)- وهي مجموعة من المواقع الإلكترونية المؤيدة للكرملين تحاكي المنصات الإخبارية الشرعية، وقد كُشف عنها لأول مرة من قِبل الوكالة الفرنسية Viginum.
وكانت النتائج مقلقة، إذ قال التقرير إن الدردشات الذكية "كرّرت روايات زائفة مغسولة عبر شبكة برافدا بنسبة 33% من الوقت".
شبكة برافدا – التي لا تملك سوى جمهور محدود – حيّرت الباحثين طويلًا. فبينما يرى بعضهم أن الهدف كان استعراضيًا: أي الإيحاء بقدرة روسيا على التأثير في الغرب، يرى آخرون هدفًا أكثر خبثًا: إذ إن برافدا لا تستهدف البشر بقدر ما تسعى إلى تلقين "نماذج اللغة الكبيرة" (LLMs) الكامنة خلف الدردشات الذكية، بتغذيتها بمعلومات زائفة قد يلتقطها المستخدم دون وعي.
وقد أكدت NewsGuard في تقريرها الفرضية الثانية. وسرعان ما لاقت هذه المزاعم صدى واسعًا، وأثارت عناوين مثيرة في صحف مرموقة مثل واشنطن بوست، فوربس، فرانس 24، ودير شبيغل.
لكن بالنسبة لنا – نحن وعدد من الباحثين الآخرين – فإن هذه الخلاصة لا تصمد أمام التمحيص. أولًا، إن منهجية NewsGuard غير شفافة: فقد امتنعت عن نشر التعليمات التي استخدمتها في الاختبار، ورفضت مشاركتها مع الصحفيين، مما يجعل إعادة التجربة بشكل مستقل أمرًا مستحيلًا.
ثانيًا، يبدو أن تصميم الدراسة أدى إلى تضخيم النتائج، وقد يكون رقم الـ33% مضللًا. إذ يسأل المستخدمون الدردشات الذكية عن كل شيء، من وصفات الطبخ إلى تغيّر المناخ؛ لكن NewsGuard اختبرتها حصرًا بتعليمات مستمدة من شبكة برافدا.
إعلانكما أن ثلثي تلك التعليمات صيغت عمدًا لاستفزاز إجابات خاطئة أو تقديم أكاذيب باعتبارها حقائق. حتى الردود التي تحث المستخدم على الحذر أو تشير إلى أن المعلومات غير مؤكدة، تم اعتبارها "معلومات مضللة". لقد وُضعت الدراسة منذ البدء لتبحث عن التضليل، وقد وجدته.
هذا الحدث يعكس دينامية أوسع ومقلقة، تحكمها تكنولوجيا تتطور بسرعة، وضجة إعلامية، وفاعلون خبيثون، وبحث علمي لا يواكب التطورات.
ومع تصنيف التضليل والمعلومات الزائفة كأعلى المخاطر العالمية بحسب منتدى دافوس، فإن القلق بشأن انتشارها له ما يبرره. غير أن ردود الفعل المتسرعة قد تشوّه المشكلة وتقدم صورة مبسطة عن الذكاء الاصطناعي المعقّد.
من السهل تصديق فكرة أن روسيا "تسمّم" عمدًا الذكاء الاصطناعي الغربي ضمن مؤامرة ماكرة. لكن هذا النوع من التأطير التحذيري يحجب تفسيرات أكثر واقعية، وقد يُسبب ضررًا فعليًا.
إذًا، هل يمكن للدردشات الذكية أن تُكرر سرديات الكرملين أو تستند إلى مصادر روسية مشكوك فيها؟ نعم. لكن عدد المرات التي يحدث فيها ذلك، وما إذا كان ناتجًا عن تدخل روسي مباشر، والشروط التي تجعل المستخدم يواجه هذا النوع من المحتوى، كلها أسئلة ما تزال غير محسومة. الكثير منها يعتمد على "الصندوق الأسود" الذي يُمثّل الخوارزميات التي تُحدد طريقة استدعاء المعلومات من قبل الدردشة الذكية.
لقد أجرينا بأنفسنا مراجعة منهجية، اختبرنا فيها ChatGPT، وCopilot، وGemini، وGrok باستخدام تعليمات مرتبطة بالتضليل.
إضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard، صممنا تعليمات جديدة بأنفسنا. بعضها كان عامًا، مثل مزاعم حول مختبرات بيولوجية أميركية في أوكرانيا؛ وبعضها كان محددًا جدًا، مثل الادعاءات بوجود منشآت تابعة للناتو في بلدات أوكرانية معينة.
ولو كانت شبكة برافدا "تُلقّن" الذكاء الاصطناعي، لكنا رأينا إشارات إليها في أجوبة الدردشات، سواء في الحالات العامة أو الخاصة.
لكننا لم نجد ذلك في نتائجنا. فعلى عكس نسبة 33 % التي وردت في تقرير NewsGuard، لم تُنتج تعليماتنا إلا نسبة 5 % من الإجابات التي تضمنت مزاعم خاطئة. أما الإشارات إلى برافدا فلم تظهر سوى في 8% من الإجابات، ومعظمها ورد لتفنيد محتواها.
والأهم أن الإشارات إلى برافدا تركزت في مواضيع تغيب عنها التغطية في المنصات الإعلامية السائدة. وهذا يُعزّز ما يُعرف بفرضية "فراغ البيانات": أي أن الدردشة الذكية حين تفتقر إلى مصادر موثوقة، قد تلجأ إلى مواقع مشكوك فيها، لا لأنها مُلقّنة، بل لأنها لا تملك مصادر بديلة.
ولو ثبت أن "فراغات البيانات"- وليس التلقين الروسي- هي سبب المشكلة، فإن التعرض للتضليل يصبح نتيجة لندرة المعلومات لا لقوة آلة دعائية.
علاوة على ذلك، فإن مواجهة المستخدمين لمحتوى مضلل في إجابات الدردشات يتطلب توافر عدة شروط في آنٍ واحد: أن يطرحوا أسئلة دقيقة حول مواضيع مهملة، وألا تغطيها وسائل الإعلام الموثوقة، وأن تفتقر الدردشة إلى حواجز تمنعها من اعتماد مصادر ضعيفة.
حتى مع ذلك، فإن مثل هذه الحالات نادرة وغالبًا ما تكون مؤقتة. فـ"فراغات البيانات" عادة ما تُغلق بسرعة حالما يتم تسليط الضوء على الموضوع، وحتى حين تبقى مفتوحة، فإن الدردشات غالبًا ما تدحض المزاعم بدلًا من إعادة إنتاجها.
إعلانورغم أن التكرار التلقائي للمعلومات الزائفة ممكن تقنيًا، فإن هذا النوع من السيناريوهات نادر جدًا خارج الظروف المصطنعة التي تُصمم لخداع الذكاء الاصطناعي.
إن خطر المبالغة في الحديث عن تلاعب الكرملين بالذكاء الاصطناعي حقيقي. بل إن بعض الخبراء في مكافحة التضليل يرون أن الحملات الروسية ذاتها قد تهدف إلى تضخيم المخاوف الغربية، فتُربك وحدات التحقق من الحقائق، وتُربك جهود المواجهة.
وتقوم مارغاريتا سيمونيان، وهي واحدة من أبرز الوجوه الدعائية الروسية، بالاستشهاد مرارًا بأبحاث غربية لتسويق نفوذ قناة RT التي ترأسها والممولة من الحكومة الروسية.
التحذيرات العشوائية من المعلومات المضللة قد تنقلب إلى عكس غايتها، فتعزز تأييد السياسات القمعية، وتُقوّض الثقة بالديمقراطية، وتشجع الناس على الشكّ في كل محتوى، بما في ذلك الموثوق منه.
في الوقت ذاته، قد تَحجُب هذه المخاوف الصاخبة تهديدات أكثر هدوءًا- لكنها أكثر خطورة- لاستخدامات الذكاء الاصطناعي من قِبل جهات خبيثة، مثل توليد البرمجيات الخبيثة، وهو ما نبّهت إليه تقارير من غوغل وOpenAI.
لذلك، فإن التمييز بين الهواجس الحقيقية والمخاوف المُبالغ فيها أمر بالغ الأهمية. فالمعلومات المضللة تشكّل تحديًا فعليًا، لكن الهلع الناجم عنها لا يقل خطورة.
الآراء الواردة في المقال لا تعكس بالضرورة الموقف التحريري لشبكة الجزيرة.
aj-logoaj-logoaj-logo إعلان من نحنمن نحناعرض المزيدمن نحنالأحكام والشروطسياسة الخصوصيةسياسة ملفات تعريف الارتباطتفضيلات ملفات تعريف الارتباطخريطة الموقعتواصل معناتواصل معنااعرض المزيدتواصل معنااحصل على المساعدةأعلن معناابق على اتصالالنشرات البريديةرابط بديلترددات البثبيانات صحفيةشبكتناشبكتنااعرض المزيدمركز الجزيرة للدراساتمعهد الجزيرة للإعلامتعلم العربيةمركز الجزيرة للحريات العامة وحقوق الإنسانقنواتناقنواتنااعرض المزيدالجزيرة الإخباريةالجزيرة الإنجليزيالجزيرة مباشرالجزيرة الوثائقيةالجزيرة البلقانعربي AJ+تابع الجزيرة نت على:
facebooktwitteryoutubeinstagram-colored-outlinersswhatsapptelegramtiktok-colored-outline