روبوت DOGE الخاص بـ إيلون ماسك يتجسس على موظفين فيدراليين باستخدام الذكاء الاصطناعي
تاريخ النشر: 9th, April 2025 GMT
كشف تقرير جديد أن فريقًا تقنيًا سريًا تابعًا للملياردير الأمريكي إيلون ماسك، يعرف باسم "فريق DOGE"، يستخدم تقنيات الذكاء الاصطناعي لمراقبة الاتصالات داخل إحدى الوكالات الفيدرالية الأمريكية، بهدف رصد أي مواقف معادية للرئيس السابق دونالد ترامب وأجندته السياسية، بحسب ما نقله مصدران مطلعان لرويترز.
وبينما تظل تفاصيل عمل "إدارة كفاءة الحكومة" التابعة لماسك محاطة بالسرية، تشير المعلومات إلى أن الفريق يستخدم أدوات تكنولوجية متقدمة، مثل روبوت الدردشة Grok المدعوم بالذكاء الاصطناعي وتطبيق Signal للتواصل، ما يثير مخاوف متزايدة بشأن الشفافية وحماية الخصوصية في عمل هذه الكيانات داخل الحكومة.
قال أحد المطلعة المصادر لوكالة رويترز إن فريق DOGE يستخدم تطبيق Signal المشفر لإجراء محادثاته، وهو ما قد يشكل انتهاكًا لقواعد حفظ السجلات الفيدرالية، خاصة وأن الرسائل يتم ضبطها لتختفي تلقائيًا بعد فترة زمنية.
كما أشار المصدر إلى أن الفريق يوظف "بوت ماسك الذكي" Grok في عمليات تقليص الهيكل الإداري للحكومة.
وقالت الأستاذة كاثلين كلارك، خبيرة أخلاقيات الحكومة في جامعة واشنطن بسانت لويس، إن استخدام Signal دون حفظ الرسائل يعد غير قانوني.
وأضافت: "هذا النوع من الممارسات يفاقم القلق بشأن الشفافية وأمن البيانات داخل الإدارة الفيدرالية".
ذكاء اصطناعي لمراقبة الموظفينفي وكالة حماية البيئة الأمريكية (EPA)، أبلغ بعض المديرين من قبل مسؤولين عيّنهم ترامب بأن فريق ماسك بدأ في استخدام الذكاء الاصطناعي لرصد سلوك الموظفين، تحديدًا من خلال تحليل العبارات المكتوبة التي قد تحمل مواقف معادية للرئيس السابق أو لماسك نفسه.
وقالت مصادر مطلعة إن مراقبة الاتصالات تتم عبر منصات مثل Microsoft Teams، حيث تم تحذير الموظفين من أن النظام يتتبع كل ما يقولونه أو يكتبونه.
وتواجه الوكالة خفضًا حادًا في ميزانيتها بنسبة 65%، مع تعليق عمل أكثر من 600 موظف منذ يناير الماضي.
وفي ردها على التقرير، أصدرت وكالة حماية البيئة بيانًا أكدت فيه أنها "تدرس استخدام الذكاء الاصطناعي لتحسين الأداء الإداري"، لكنها نفت أن تكون هذه التقنية تستخدم لاتخاذ قرارات تتعلق بالموظفين بالتعاون مع DOGE، ولم توضح ما إذا كانت تستخدمها في مراقبة الاتصالات.
انتقادات حادة وتحقيقات قانونيةورغم محاولات التبرير، تصاعدت الانتقادات داخل الأوساط السياسية الأمريكية، حيث اتهم ديمقراطيون ماسك وترامب بالسعي لإقصاء موظفين مستقلين من الجهاز الإداري واستبدالهم بولاء سياسي، بينما وصف خبراء أخلاقيات حكومية هذه الممارسات بأنها "إساءة استخدام للسلطة" وتهديد لحرية التعبير.
وذكرت رويترز أن تحقيقاتها شملت مقابلات مع نحو 20 شخصًا مطلعًا على عمل DOGE، إضافة إلى مراجعة مئات الوثائق القانونية التي تتناول ممارسات الوصول إلى البيانات الحكومية، ما سلط الضوء على استخدام غير تقليدي للتكنولوجيا داخل إدارة ترامب.
سرية مفرطة وخرق للبروتوكولاتوكشف التقرير أن بعض موظفي DOGE يتجاوزون الإجراءات الرسمية لتداول الوثائق الحكومية، ويستخدمون مستندات Google بشكل جماعي في التعديل، ما يُصعّب تتبع النسخ النهائية أو معرفة من أجرى التعديلات.
ورفض البيت الأبيض وماسك التعليق على هذه المعلومات، بينما أكدت إدارة ترامب أن DOGE لا يخضع لقوانين الشفافية التي تتيح للصحافة والجمهور الاطلاع على سجلات الجهات الفيدرالية.
وفي 10 مارس الماضي، أمر قاضٍ فيدرالي إدارة DOGE بتسليم مستنداتها إلى منظمة "مواطنون من أجل المسؤولية والأخلاقيات في واشنطن"، التي رفعت دعوى قضائية تطالب بالكشف عن هذه الوثائق، وحتى اليوم، لم تسلّم DOGE أي وثائق وفقًا للمنظمة.
السيطرة على البنية التحتية الرقمية للحكومةوأشار التقرير إلى أن فريق ماسك عزز سيطرته على البنية الرقمية لبعض المؤسسات، مثل مكتب إدارة شؤون الموظفين OPM، حيث تم حجب وصول الموظفين إلى قاعدة بيانات تضم معلومات حساسة لأكثر من 10 ملايين موظف حالي وسابق.
ولم يتبق سوى موظفين اثنين يمكنهم الوصول، أحدهما موظف عينه ترامب وكان يعمل سابقًا في شركة ناشئة بمجال الذكاء الاصطناعي.
وينظر إلى OPM على أنه أداة تنفيذية رئيسية لتنفيذ رؤية الإدارة الجديدة بتقليص الجهاز الإداري الفيدرالي.
المصدر: صدى البلد
كلمات دلالية: إيلون ماسك تقنيات الذكاء الاصطناعي المزيد الذکاء الاصطناعی إیلون ماسک
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر