تقرير في الغارديان يحث على عدم التعامل مع تطبيق ديبسيك الصيني
تاريخ النشر: 29th, January 2025 GMT
بعد النجاح الكبير الذي حققه تطبيق "ديبسك" الصيني للذكاء الاجتماعي وتجاوزه، وتأثيره السلبي الكبير على أسهم شركات التكنولوجيا الكبرى، قال تقرير لصحيفة "الغارديان" البريطانية إن "الخبراء حثوا على توخي الحذر بشأن التبني السريع لمنصة الذكاء الاصطناعي الصينية "ديبسك"، مشيرين إلى مخاوف بشأن نشرها لمعلومات مضللة وكيف قد تستغل الدولة الصينية بيانات المستخدمين.
وأدى تطبيق الذكاء الاصطناعي الجديد المنخفض التكلفة إلى مسح تريليون دولار من مؤشر أسهم التكنولوجيا الأمريكي الرائد هذا الأسبوع، وأصبح بسرعة التطبيق المجاني الأكثر تنزيلا في المملكة المتحدة والولايات المتحدة. ووصفه دونالد ترامب بأنه "جرس إنذار" لشركات التكنولوجيا.
لقد صدم ظهوره عالم التكنولوجيا من خلال إظهاره على ما يبدو أنه يمكنه تحقيق أداء مماثل للمنصات المستخدمة على نطاق واسع مثل ChatGPT"" مقابل جزء بسيط من تكلفتها.
ونقلت الصحيفة عن مايكل وولدريدج، أستاذ أسس الذكاء الاصطناعي في جامعة أكسفورد، قوله إنه "ليس من غير المعقول افتراض أن البيانات المدخلة في روبوت الدردشة يمكن مشاركتها مع الدولة الصينية".
وأضاف: "أعتقد أنه من الجيد تنزيله وسؤاله عن أداء نادي ليفربول لكرة القدم أو الدردشة حول تاريخ الإمبراطورية الرومانية، لكن هل أنصح بوضع أي شيء حساس أو شخصي أو خاص عليه؟ بالتأكيد لا، لأنك لا تعرف أين تذهب البيانات".
ونقل التقرير عن ويندي هول، عضو الهيئة الاستشارية رفيعة المستوى للأمم المتحدة بشأن الذكاء الاصطناعي، قولها: "لا يمكنك التهرب من حقيقة أنه إذا كنت شركة تقنية صينية تتعامل مع المعلومات، فأنت تخضع لقواعد الحكومة الصينية بشأن ما يمكنك وما لا يمكنك قوله".
ونقلت عن روس بورلي، أحد مؤسسي مركز مرونة المعلومات، والذي تموله جزئيا حكومتا الولايات المتحدة والمملكة المتحدة، قوله: "يجب أن نشعر بالقلق. لقد رأينا مرارا وتكرارا كيف تسلح بكين هيمنتها التكنولوجية للمراقبة والسيطرة والإكراه، سواء على المستوى المحلي أو الخارجي".
وقال إنه إذا لم يتم التحكم فيه، فقد "يغذي حملات التضليل، ويؤدي إلى تآكل الثقة العامة وترسيخ السرديات الاستبدادية داخل ديمقراطياتنا".
وقال المتحدث باسم رئيس الوزراء، عندما سُئل عن ما إذا كانت الحكومة ستستبعد استخدام الذكاء الاصطناعي الصيني في وايتهول، إنه "من المبكر الحديث عن نماذج محددة". وقال إن التطورات أظهرت أن المملكة المتحدة يجب أن "تذهب أبعد وأسرع لإزالة الحواجز أمام الابتكار" في مجال الذكاء الاصطناعي.
و"ديبسك" منصة مفتوحة المصدر، ما يعني أن مطوري البرامج يمكنهم تكييفها مع غاياتهم الخاصة. وقد أشعلت الآمال في موجة جديدة من الابتكار في مجال الذكاء الاصطناعي، والتي بدا أنها تهيمن عليها شركات التكنولوجيا الأمريكية التي تعتمد على استثمارات ضخمة في الرقائق الدقيقة ومراكز البيانات ومصادر الطاقة الجديدة.
وقال وولدريدج: "إنها تشير بقوة إلى حد ما، في حال لم يكن لدى أي شخص الرسالة، إلى أن الصين ليست متأخرة في هذا المجال".
ووجد بعض الأشخاص الذين اختبروا التطبيق أنه لن يجيب على أسئلة حول مواضيع حساسة مثل مذبحة ميدان تاينانمين. وعند سؤاله عن وضع تايوان، كرر موقف الحزب الشيوعي الصيني بأن الجزيرة جزء "غير قابل للتصرف" من الصين.
وقال هول: "إن أكبر مشكلة في الذكاء الاصطناعي التوليدي هي المعلومات المضللة. يعتمد الأمر على البيانات في النموذج، والتحيز في تلك البيانات وكيفية استخدامها. يمكنك أن ترى هذه المشكلة مع روبوت الدردشة DeepSeek".
يستخدم الأشخاص نماذج الذكاء الاصطناعي مثل "ديبسك" أو " شات جي بي تي" لمساعدتهم في معالجة الأوراق الشخصية أو المستندات الخاصة بالعمل، مثل محاضر الاجتماعات، ولكن يمكن لمالك الشركة أخذ أي شيء يتم تحميله واستخدامه لتدريب الذكاء الاصطناعي أو لأغراض أخرى.
تتخذ شركة "ديبسك" من هانغتشو مقرا لها وتوضح في سياسة الخصوصية الخاصة بها أن المعلومات الشخصية التي تجمعها من المستخدمين محفوظة "على خوادم آمنة تقع في جمهورية الصين الشعبية".
وتقول إنها تستخدم البيانات "للامتثال لالتزاماتنا القانونية، أو حسب الضرورة لأداء مهام في المصلحة العامة، أو لحماية المصالح الحيوية لمستخدمينا وغيرهم من الأشخاص".
وينص قانون الاستخبارات الوطنية في الصين على أن جميع الشركات والمنظمات والمواطنين "يجب أن يدعموا ويساعدوا ويتعاونوا مع جهود الاستخبارات الوطنية".
المصدر: عربي21
كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي صحافة صحافة إسرائيلية الصيني الذكاء الاصطناعي الصين الذكاء الاصطناعي صحافة صحافة صحافة سياسة سياسة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة صحافة سياسة اقتصاد رياضة صحافة أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی
إقرأ أيضاً:
السباق الاستخباراتي على الذكاء الاصطناعي
في لحظة فارقة على الساحة التكنولوجية الدولية، جاء إطلاق شركة "ديب سيك" الصينية نموذجا لغويا ضخما يُعد من بين الأفضل في العالم، بالتزامن مع تنصيب دونالد ترامب رئيسا للولايات المتحدة، ليدق ناقوس الخطر في الأوساط الاستخباراتية الأميركية.
واعتبر ترامب ما جرى "جرس إنذار" في حين أقر مارك وارنر نائب رئيس لجنة الاستخبارات بمجلس الشيوخ بأن مجتمع الاستخبارات الأميركي "فوجئ" بسرعة التقدم الصيني، وفق مجلة إيكونوميست.
اقرأ أيضا list of 2 itemslist 1 of 2النيجريون لفرنسا: اعترفي بالجرائم الاستعمارية وعوضي عنهاlist 2 of 2أنقذونا نحن نموت.. المجاعة تجتاح غزةend of listوفي العام الماضي، أبدت إدارة الرئيس الأميركي السابق جو بايدن قلقها من احتمال أن يتفوق الجواسيس والجنود الصينيون في سرعة تبنّي الذكاء الاصطناعي "إيه آي" (AI) فأطلقت خطة طوارئ لتعزيز اعتماد المجالين الاستخباراتي والعسكري على هذه التقنية.
وأوضحت المجلة في تقريرها أن الخطة تضمنت توجيه وزارة الدفاع الأميركية (البنتاغون) ووكالات الاستخبارات ووزارة الطاقة (المسؤولة عن إنتاج الأسلحة النووية) بتكثيف تجاربها على النماذج الأحدث من الذكاء الاصطناعي، وتوثيق التعاون مع مختبرات القطاع الخاص الرائدة مثل أنثروبيك وغوغل ديب مايند، وأوبن إيه آي.
سباق مفتوحوفي خطوة ملموسة، منح البنتاغون، في 14 يوليو/تموز الجاري، عقودا تصل قيمتها إلى 200 مليون دولار لكل من تلك الشركات بالإضافة إلى "إكس إيه آي" المملوكة للملياردير إيلون ماسك، بهدف تطوير نماذج من الذكاء الاصطناعي الوكيل الذي يمكنه اتخاذ القرارات، والتعلم المستمر من التفاعلات، وتنفيذ مهام متعددة من خلال تقسيمها إلى خطوات وتحكّمها بأجهزة أخرى مثل الحواسيب أو المركبات.
لكن هذا السباق لا يقتصر -برأي إيكونوميست- على البنتاغون. إذ باتت نماذج الذكاء الاصطناعي تنتشر بسرعة داخل الوكالات الاستخباراتية، لتُستخدم في تحليل البيانات السرية والتفاعل مع المعلومات الحساسة.
الشركات طورت نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام
كما طوّرت الشركات نسخا مُعدّلة من نماذجها تتيح التعامل مع وثائق مصنّفة سرّيا، وتتمتع بإتقان لغات ولهجات حساسة لاحتياجات الاستخبارات، مع تشغيلها على خوادم مفصولة عن الإنترنت العام.
إعلانففي يناير/كانون الثاني الماضي، أعلنت شركة مايكروسوفت أن 26 من منتجاتها في الحوسبة السحابية حصلت على تصريح لاستخدامها في وكالات الاستخبارات.
وفي يونيو/حزيران، أعلنت أنثروبيك عن إطلاق نموذج "كلود غوف" (Claude Gov) وهو روبوت دردشة جديد مصمم خصيصا للجهات العسكرية والاستخباراتية بالولايات المتحدة، مشيرة إلى أنه يُستخدم بالفعل على نطاق واسع في جميع أجهزة الاستخبارات الأميركية، إلى جانب نماذج أخرى من مختبرات منافسة.
منافسون آخرونليست وحدها الولايات المتحدة التي تشهد مثل هذه التطورات، حيث تفيد المجلة أن بريطانيا تسعى إلى تسريع وتيرة اللحاق بالركب، ناقلة عن مصدر بريطاني رفيع -لم تُسمِّه- تأكيده أن جميع أعضاء مجتمع الاستخبارات في بلاده بات لديهم إمكانية الوصول إلى "نماذج لغوية ضخمة عالية السرية".
وعلى البر الرئيسي للقارة، تحالفت شركة ميسترال الفرنسية -الرائدة والوحيدة تقريبا في مجال الذكاء الاصطناعي على مستوى أوروبا- مع وكالة الذكاء الاصطناعي العسكري بالبلاد، لتطوير نموذج "سابا" (Saba) المدرّب على بيانات من الشرق الأوسط وجنوب آسيا، ويتميز بإتقانه العربية ولغات إقليمية أخرى مثل التاميلية.
أما في إسرائيل، فقد أفادت مجلة "+972" أن استخدام الجيش نموذج "جي بي تي-4" (GPT-4) الذي تنتجه شركة "أوبن إيه آي" قد تضاعف 20 مرة منذ اندلاع الحرب على قطاع غزة، في مؤشر إلى مدى تسارع تبنّي هذه النماذج في السياقات العسكرية الحية.
ورغم هذا النشاط المحموم، يقرّ خبراء داخل القطاع بأن تبنّي الذكاء الاصطناعي بأجهزة الأمن لا يزال متواضعا. وتقول كاترينا مولِّيغان المسؤولة عن شراكات الأمن في "أوبن إيه آي" إن اعتماد الذكاء الاصطناعي "لم يصل بعد إلى المستوى الذي نأمله".
وحتى مع وجود جيوب من التميز، كوكالة الأمن القومي الأميركية، إلا أن العديد من الوكالات ما تزال تتخلف عن الركب، إما بسبب تصميمها واجهات تشغيل خاصة بها، أو بسبب الحذر البيروقراطي في تبني التحديثات السريعة التي تشهدها النماذج العامة.
ويرى بعض الخبراء أن التحول الحقيقي لا يكمن في استخدام روبوتات دردشة فحسب، بل في "إعادة هندسة المهام الاستخباراتية نفسها" كما يقول تارون تشابرا المسؤول السابق بمجلس الأمن القومي الأميركي، والمدير الحالي للسياسات الأمنية في شركة أنثروبيك.
لعبة تجسس بالذكاء الاصطناعيفي المقابل، تُحذر جهات بحثية من المبالغة في الآمال المعقودة على هذه النماذج، حيث يرى الدكتور ريتشارد كارتر (من معهد آلان تورينغ البريطاني) أن المشكلة الأساسية تكمن في ما تُنتجه النماذج من "هلوسات" -أي إجابات غير دقيقة أو مضللة- وهو خطر كبير في بيئة تتطلب الموثوقية المطلقة.
وقد بلغت نسبة الهلوسة في أحدث نموذج للذكاء الاصطناعي "الوكيل" الذي تنتجه "أوبن إيه آي" حوالي 8%، وهي نسبة أعلى من النماذج السابقة.
وتُعد هذه المخاوف -بحسب إيكونوميست- جزءا من تحفظ مؤسسي مشروع، خاصة في أجهزة مثل وكالة الاستخبارات والأمن البريطانية المعروفة اختصارا بحروفها الإنجليزية الأولى "جي سي إتش كيو" (GCHQ) التي تضم مهندسين لديهم طبيعة متشككة تجاه التقنيات الجديدة غير المُختبرة جيدا.
إعلانويتصل هذا بجدل أوسع حول مستقبل الذكاء الاصطناعي. فالدكتور كارتر من بين أولئك الذين يرون أن بنية النماذج اللغوية العامة الحالية لا تُناسب نوع التفكير السببي الذي يمنحها فهما متينا للعالم. ومن وجهة نظره، فإن الأولوية بالنسبة لوكالات الاستخبارات يجب أن تكون دفع المختبرات نحو تطوير نماذج جديدة تعتمد على أنماط تفكير واستدلال مختلفة.
الصين في الصورةورغم تحفّظ المؤسسات الغربية، يتصاعد القلق من تفوق الصين المحتمل. يقول فيليب راينر من معهد الأمن والتكنولوجيا في وادي السيليكون "لا نزال نجهل مدى استخدام الصين نموذج ديب سيك (DeepSeek) في المجالين العسكري والاستخباراتي" مرجحاً أن "غياب القيود الأخلاقية الصارمة لدى الصين قد يسمح لها باستخلاص رؤى أقوى وبوتيرة أسرع".
موليغان: ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (AGI)، لكن نخسر سباق التبني الفعلي له
وإزاء هذا القلق، أمرت إدارة ترامب، في 23 يوليو/تموز الجاري، وزارة الدفاع ووكالات الاستخبارات بإجراء تقييمات دورية لمستوى تبنّي الذكاء الاصطناعي في المؤسسات الأمنية الأميركية مقارنة بمنافسين مثل الصين، وتطوير آلية للتكيّف المستمر.
ويجمع المراقبون تقريبا على نقطة جوهرية، وهي أن الخطر الأكبر لا يكمن في أن تندفع أميركا بلا بصيرة نحو تبني الذكاء الاصطناعي، بل في أن تظل مؤسساتها عالقة في نمطها البيروقراطي القديم.
وتقول كاترينا مولِّيغان "ما يُقلقني فعلا هو أن نكسب سباق الوصول إلى الذكاء الاصطناعي العام (إيه جي آي AGI) لكن نخسر سباق التبني الفعلي له".