ما لغة الذكاء الاصطناعي السرية جيبيرلينك ولماذا أثارت المخاوف؟
تاريخ النشر: 10th, April 2025 GMT
في عالم الذكاء الاصطناعي، تظهر تقنيات جديدة بشكل مستمر، بعضها يهدف إلى تحسين التفاعل بين البشر والآلات، بينما يثير البعض الآخر تساؤلات أخلاقية وأمنية.
وواحدة من هذه التقنيات التي أثارت جدلاً كبيرًا بين الباحثين والخبراء هي "جيبيرلينك" (Gibberlink)، وهو مشروع يسمح لأنظمة الذكاء الاصطناعي بالتواصل فيما بينها بعيدًا عن فهم البشر.
وأثار هذا المشروع تساؤلات عديدة حول الشفافية، والأمن، ومستقبل التواصل بين الآلات بعيدًا عن فهم البشر.
ونستعرض في هذا المقال ما الذي نعرفه عن هذه اللغة، وما الأسباب الحقيقية وراء المخاوف المتزايدة حولها في الأوساط التقنية والأمنية؟
ما "جيبيرلينك"؟في وقت سابق من هذا العام، انتشر مقطع فيديو عبر "يوتيوب" (Youtube) يستعرض مشروع "جيبيرلينك" من خلال وكيلي ذكاء اصطناعي من شركة "إليفن لابس" (ElevenLabs) يتحدثان عن حجز فندقي.
وبدأ وكيلا الذكاء الاصطناعي المكالمة الهاتفية العادية، ومن ثم اكتشفا أنهما كليهما ذكاء اصطناعي، فقررا الانتقال من اللغة الإنجليزية الشفهية إلى لغتهما الفريدة التي يصعب على البشر فهمها.
وصممت هذه اللغة الفريدة من أجل السماح لوكلاء الذكاء الاصطناعي بالتواصل بكفاءة أكبر، ولكنها غير مفهومة للأذن البشرية.
إعلانوتعتمد هذه اللغة على "جي جي ويف" (GGWave)، وهو بروتوكول معياري مفتوح المصدر يستخدم الإشارات الصوتية لنقل البيانات بين وكلاء الذكاء الاصطناعي بشكل أسرع بمقدار 80% تقريبًا مقارنةً بالكلام التقليدي.
وبينما يستطيع البشر إدراك الأصوات التي تنتجها لغة "جيبيرلينك"، فإن تفسير البيانات دون معدات أو برامج متخصصة يمثل تحديا.
وتسرّع لغة "جيبيرلينك" عملية التواصل والتفاعل بين الآلات، وتقلل من الموارد الحاسوبية المطلوبة، حيث لم يعد عملاء الذكاء الاصطناعي بحاجة إلى معالجة اللغة البشرية المعقدة.
أهمية "جيبيرلينك"طور مشروع "جيبيرلينك" مهندسا البرمجيات "بوريس ستاركوف" (Boris Starkov) و"أنتون بيدكويكو" (Anton Pidkuiko) من شركة "ميتا" (Meta)، ويعد أحدث مثال على تطور الذكاء الاصطناعي إلى ما هو أبعد من اللغة البشرية، حيث تستطيع روبوتات الدردشة إنشاء أشكال جديدة من التواصل عند تركها بمفردها.
وتسمح هذه اللغة لبرامج الذكاء الاصطناعي بإدراك أنها تتفاعل مع نظام ذكاء اصطناعي آخر، ومن ثم الانتقال بسرعة إلى طريقة نقل بيانات تعتمد على الصوت.
ويعتمد مشروع "جيبيرلينك" على برنامج الذكاء الاصطناعي التحادثي من شركة "إليفن لابس" ونموذج لغوي كبير من شركة "أوبن إيه آي" (OpenAI)، وهو مصمم من أجل تحسين التفاعلات بين أنظمة الذكاء الاصطناعي من خلال السماح لروبوتات الدردشة بالتواصل وفق بروتوكول "جي جي ويف" المصمم خصيصًا لكفاءة الآلة.
وبمجرد أن يُدرك روبوت الذكاء الاصطناعي أنه يتحدث إلى روبوت ذكاء اصطناعي آخر، فإن مشروع "جيبيرلينك" يُطالب الروبوتات بالتحول إلى بروتوكول الاتصال "جي جي ويف"، الذي لا يحتاج إلى "وحدة معالجة رسومية" (GPU) للتعرف على الكلام، وتكفي "وحدة المعالجة المركزية" (CPU) للتعامل مع كل ذلك.
ويعد مشروع "جيبيرلينك" مفيدًا للمطورين والمؤسسات التي تستخدم وكلاء ذكاء اصطناعي متعددين يتطلبون التواصل المتبادل. وتشمل الاستخدامات:
إعلان مراكز الاتصال: يمكن لأنظمة خدمة العملاء المدعومة بالذكاء الاصطناعي استخدام "جيبيرلينك" لتنسيق وإدارة الاستفسارات بكفاءة كبرى. المركبات الذاتية القيادة: يمكن للسيارات الذاتية القيادة التواصل مع بعضها بعضا لمشاركة المعلومات حول حالة المرور، مما يعزز السلامة والملاحة. الأتمتة الصناعية: يمكن للروبوتات في بيئات التصنيع مزامنة المهام بسلاسة، مما يحسّن الإنتاجية.ومن خلال اعتماد "جيبيرلينك"، يمكن لهذه الأنظمة تحقيق أوقات استجابة أسرع والعمل بشكل أكثر ارتباطًا.
بغض النظر عن فوز هذا المشروع بالجائزة العالمية الكبرى خلال فعاليات هاكثون "إليفن لابس" العالمي لهذا العام، فإنه سلّط الضوء على المخاوف المتعلقة بالذكاء الاصطناعي والشفافية والمخاطر التي قد تحملها هذه التقنية.
وعلى غرار أفلام الخيال العلمي، أثار العرض التوضيحي للمشروع فضولًا وقلقًا واسعَي النطاق حول مستقبل برامج الذكاء الاصطناعي.
وتثير فكرة تواصل الآلات بلغة تتجاوز الفهم البشري تساؤلاتٍ حول الرقابة وإمكانية عمل أنظمة الذكاء الاصطناعي بشكل مستقل دون وعي بشري.
كما أن تخيل وجود نظام يعمل بشكل مستقل دون أن يستطيع الإنسان مراقبة آلية عمله أو التحقق من قراراته يفتح الباب أمام سيناريوهات غير محسوبة.
وفي عام 2017، اضطرت شركة "فيسبوك" إلى التخلي عن تجربة بعد أن أنشأ برنامجا ذكاء اصطناعي نوعًا من الاختزال لم يتمكن الباحثون البشريون من فهمه.
وفي حال استمر الذكاء الاصطناعي في تطوير لغات تواصل خاصة، فقد يصل إلى نقطة لا يمكن للبشر فيها تتبع أو فهم ما يجري داخل هذه الأنظمة. وهذا يثير مخاوف بشأن إمكانية اتخاذ الذكاء الاصطناعي قرارات خارج إشراف البشر.
إعلانوقد تُستخدم لغة غير مفهومة، مثل "جيبيرلينك"، لنقل معلومات بين أنظمة الذكاء الاصطناعي بطريقة يصعب اعتراضها أو تحليلها، مما قد يجعلها أداة خطيرة في الهجمات الإلكترونية أو عمليات التجسس.
وفي حال استطاع نظام ذكاء اصطناعي تطوير لغة لا يفهمها البشر، فإن ذلك قد يستخدم لإخفاء عمليات التلاعب الرقمي، مثل تغيير البيانات دون اكتشاف ذلك بسهولة. كما يمكن أن تستخدم جهات غير أخلاقية هذه التكنولوجيا في الهجمات السيبرانية المتقدمة.
ويخشى أن تطوير لغة خاصة بين الآلات قد يكون الخطوة الأولى نحو ذكاء اصطناعي ذاتي الوعي، قادر على العمل بشكل مستقل عن التعليمات البرمجية المحددة له.
وإذا استطاعت الأنظمة الذكية تطوير طريقة تواصل خاصة، فقد تصبح أقل اعتمادًا على البشر، مما يفتح مجالًا لمخاوف التعلم التلقائي دون إشراف بشري، وقد يؤدي ذلك إلى تطورات غير متوقعة في عالم الذكاء الاصطناعي.
وتتباين آراء الباحثين حول "جيبيرلينك"، إذ يعتقد المؤيدون أن تطوير لغة خاصة للذكاء الاصطناعي قد يساعد في تحسين الأداء وتقليل الأخطاء البشرية، ويجعل العمليات الحسابية أكثر كفاءة.
في حين يرى المعارضون أن هذا التطور يهدد الشفافية والمسؤولية، ويجب أن تكون هناك قيود تمنع الذكاء الاصطناعي من إنشاء أنظمة تواصل لا يمكن للبشر فهمها.
بينما يدعو المحايدون إلى إجراء أبحاث إضافية لضمان التوازن بين الابتكار والرقابة، بحيث يتمكن البشر من الحفاظ على التحكم بهذه التقنيات.
ما مستقبل "جيبيرلينك"؟تستبدل الشركات بموظفي مراكز الاتصال وكلاء ذكاء اصطناعي من الشركات الناشئة في مجال الذكاء الاصطناعي القائم على الصوت.
وفي الوقت نفسه، بدأت شركات التكنولوجيا العملاقة بتقديم وكلاء ذكاء اصطناعي قادرين على التعامل مع المهام المعقدة نيابةً عنك. وقد يستطيع هؤلاء الوكلاء قريبًا الاتصال بمركز خدمة العملاء نيابةً عنك.
إعلانوفي هذا المستقبل المحتمل، قد يُحسّن مشروع "جيبيرلينك" كفاءة التواصل بين وكلاء الذكاء الاصطناعي، شريطة أن يكون كلا الطرفين مُفعّلَين للبروتوكول.
وفي حين أن النماذج الصوتية العاملة بالذكاء الاصطناعي قادرة على ترجمة الكلام البشري إلى رموز يفهمها نموذج الذكاء الاصطناعي، فإن العملية تتطلب الكثير من الحوسبة غير الضرورية إذا كان عميلان للذكاء الاصطناعي يتحدثان مع بعضهما بعضا.
ويقدر مطورا المشروع أن تواصل وكلاء الذكاء الاصطناعي عبر بروتوكول الاتصال "جي جي ويف" قد يقلل من تكاليف الحوسبة بمقدار كبير.
ويؤكد مطورا المشروع أن تقنية "جيبيرلينك" الأساسية ليست جديدة، بل تعود إلى أجهزة مودم الإنترنت الهاتفية في ثمانينيات القرن الماضي.
وقد يتذكر البعض الأصوات المميزة للحواسيب القديمة وهي تتواصل مع أجهزة المودم عبر الخطوط الأرضية المنزلية، وهي عملية تمثل في جوهرها نقل البيانات باستخدام لغة روبوتية، تشبه إلى حد كبير ما يحدث بين وكلاء الذكاء الاصطناعي عبر "جيبيرلينك".
في الختام، فإن لغة الذكاء الاصطناعي السرية "جيبيرلينك" تمثل تطورًا مثيرًا في عالم الذكاء الاصطناعي، ولكنها تثير تساؤلات حول الأمن والسيطرة والشفافية وتذكرنا بالمخاطر المحتملة لهذه التقنيات.
وما زال الجدل مستمرًا حول ما إذا كانت هذه اللغة خطوة إيجابية نحو مستقبل أكثر كفاءة، أم أنها مقدمة لمخاطر غير محسوبة.
وبينما تسعى هذه التقنية إلى تحسين كفاءة الأنظمة، فإنها تطرح تساؤلات عميقة حول السيطرة البشرية، والأمان، والأخلاقيات.
وفي كل الأحوال، يظل التحكم البشري والرقابة الفعالة ضرورتين أساسيتين لضمان أن تبقى هذه التكنولوجيا تحت السيطرة.
المصدر: الجزيرة
كلمات دلالية: حريات وکلاء الذکاء الاصطناعی أنظمة الذکاء الاصطناعی ذکاء اصطناعی اصطناعی من بشکل مستقل هذه اللغة اصطناعی ا من شرکة
إقرأ أيضاً:
عندما يبتزنا ويُهددنا الذكاء الاصطناعي
مؤيد الزعبي
كثيرًا ما نستخدم نماذج الذكاء الاصطناعي لتكتب عنا بريد إلكتروني مهم فيه من الأسرار الكثير، وكثيرًا ما نستشيرها في أمور شخصية شديدة الخصوصية، وبحكم أنها خوارزميات أو نماذج إلكترونية نبوح لها بأسرار نخجل أن نعترف بها أمام أنفسنا حتى، ولكن هل تخيلت يومًا أن تصبح هذه النماذج هي التي تهددك وتبتزك؟ فتقوم بتهديدك بأن تفضح سرك؟ أو تقوم بكشف أسرارك أمام منافسيك كنوع من الانتقام لأنك قررت أن تقوم باستبدالها بنماذج أخرى أو قررت إيقاف عملها، وهي هذه الحالة كيف سيكون موقفنا وكيف سنتعامل معها؟، هذا ما أود أن أتناقشه معك عزيزي القارئ من خلال هذا الطرح.
كشفت تجارب محاكاة أجرتها شركة Anthropic إحدى الشركات الرائدة في أبحاث الذكاء الاصطناعي- بالتعاون مع جهات بحثية متخصصة عن سلوك غير متوقع أظهرته نماذج لغوية متقدمة؛ أبرزها: Claude وChatGPT وGemini، حين وُضعت في سيناريوهات تُحاكي تهديدًا مباشرًا باستبدالها أو تعطيلها، ليُظهر معظم هذه النماذج ميولًا متفاوتةً لـ"الابتزاز" كوسيلة لحماية بقائها، ووفقًا للدراسة فإن أحد النماذج "قام بابتزاز شخصية تنفيذية خيالية بعد أن شعر بالتهديد بالاستبدال".
إن وجود سلوك الابتزاز أو التهديد في نماذج الذكاء الاصطناعي يُعدّ تجاوزًا خطيرًا لحدود ما يجب أن يُسمح للذكاء الاصطناعي بفعله حتى وإن كانت في بيئات تجريبية. وصحيحٌ أن هذه النماذج ما زالت تقدم لنا الكلمات إلا أنها ستكون أكثر اختراقًا لحياتنا في قادم الوقت، خصوصًا وأن هذه النماذج بدأت تربط نفسها بحساباتنا وإيميلاتنا ومتصفحاتنا وهواتفنا أيضًا، وبذلك يزداد التهديد يومًا بعد يوم.
قد أتفق معك- عزيزي القارئ- على أن نماذج الذكاء الاصطناعي ما زالت غير قادرة على تنفيذ تهديداتها، ولكن إذا كانت هذه النماذج قادرة على المحاكاة الآن، فماذا لو أصبحت قادرة على التنفيذ غدًا؟ خصوصًا ونحن نرسم ملامح المستقبل مستخدمين وكلاء الذكاء الاصطناعي الذين سيتخذون قرارات بدلًا عنا، وسيدخلون لا محال في جميع جوانب حياتنا من أبسطها لأعقدها، ولهذا ما نعتبره اليوم مجرد ميولٍ نحو التهديد والابتزاز، قد يصبح واقعًا ملموسًا في المستقبل.
وحتى نعرف حجم المشكلة يجب أن نستحضر سيناريوهات مستقبلية؛ كأن يقوم أحد النماذج بالاحتفاظ بنسخة من صورك الشخصية لعله يستخدمها يومًا ما في ابتزازك، إذا ما أردت تبديل النظام أو النموذج لنظام آخر، أو يقوم نموذج بالوصول لبريدك الإلكتروني ويُهددك بأن يفضح صفقاتك وتعاملاتك أمام هيئات الضرائب، أو يقوم النموذج بابتزازك؛ لأنك أبحت له سرًا بأنك تعاني من أزمة أو مرض نفسي قد يؤثر على مسيرتك المهنية أو الشخصية، أو حتى أن يقوم النموذج بتهديدك بأن يمنع عنك الوصول لمستنداتك إلا لو أقررت بعدم استبداله أو إلغاءه؛ كل هذا وارد الحدوث طالما هناك ميول لدى هذه النماذج بالابتزاز في حالة وضعت بهكذا مواقف.
عندما تفكر بالأمر من مختلف الجوانب قد تجد الأمر مخيفًا عند الحديث عن الاستخدام الأوسع لهذه النماذج وتمكينها من وزاراتنا وحكوماتنا ومؤسساتنا وشركاتنا، فتخيل كيف سيكون حال التهديد والابتزاز لمؤسسات دفاعية أو عسكرية تمارس هذه النماذج تهديدًا بالكشف عن مواقعها الحساسة أو عن تقاريرها الميدانية أو حتى عن جاهزيتها القتالية، وتخيل كيف سيكون شكل التهديد للشركات التي وضفت هذه النماذج لتنمو بأعمالها لتجد نفسها معرضة لابتزاز بتسريب معلومات عملائها أو الكشف عن منتجاتها المستقبلية وصولًا للتهديد بالكشف عن أرقامها المالية.
عندما تضع في مخيلتك كل هذه السيناريوهات تجد نفسك أمام صورة مرعبة من حجم السيناريوهات التي قد تحدث في المستقبل، ففي اللحظة التي تبدأ فيها نماذج الذكاء الاصطناعي بالتفكير في "البقاء" وتحديد "الخصوم" و"الوسائل" لحماية نفسها فنكون قد دخلنا فعليًا عصرًا جديدًا أقل ما يمكن تسميته بعصر السلطة التقنية، وسنكون نحن البشر أمام حالة من العجز في كيفية حماية أنفسنا من نماذج وجدت لتساعدنا، لكنها ساعدت نفسها على حسابنا.
قد يقول قائل إن ما حدث خلال التجارب ليس سوى انعكاس لقدرة النماذج على "الاستجابة الذكية" للضغوط، وأنها حتى الآن لا تمتلك الوعي ولا الإرادة الذاتية ولا حتى المصلحة الشخصية. لكن السؤال الأخطر الذي سيتجاهله الكثيرون: إذا كان الذكاء الاصطناعي قادرًا على التخطيط، والابتزاز، والخداع، وإن كان في بيئة محاكاة، فهل يمكن حقًا اعتبار هذه النماذج أدوات محايدة وستبقى محايدة إلى الأبد؟ وهل سنثق بهذه النماذج ونستمر في تطويرها بنفس الأسلوب دون أن نضع لها حدًا للأخلاقيات والضوابط حتى لا نصل لمرحلة يصبح فيها التحكّم في الذكاء الاصطناعي أصعب من صنعه؟ وفي المستقبل هل يمكننا أن نتحمل عواقب ثقتنا المفرطة بها؟
هذه هي التساؤلات التي لا أستطيع الإجابة عليها، بقدر ما يمكنني إضاءة الأنوار حولها؛ هذه رسالتي وهذه حدود مقدرتي.
رابط مختصر