الذكاء الاصطناعي يقرب العلماء من فك شيفرة التواصل مع الطيور
تاريخ النشر: 14th, February 2024 GMT
كشفت جين لوتون، مدير التأثير في " Earth Species Project"، عن قيام العلماء بتجربة حوار بين عصفور وآلة، لفهم آلية التواصل مع الحيوانات، منوهةً بأن الهدف من هذه التجربة ومثيلاتها هو المحافظة على هذه الفصائل وحمايتها.
جاء ذلك خلال جلسة بعنوان "هل سيمكننا الذكاء الاصطناعي من التخاطب مع كافة المخلوقات؟"، والتي أدارتها الإعلامية جين ويذرسبون، ضمن أعمال اليوم الختامي للقمة العالمية للحكومات 2024، حيث تناولت الجلسة جهود العلماء في فك شيفرة التواصل مع الطبيعة واقترابهم من ذلك، من خلال الاستفادة من إمكانات الذكاء الاصطناعي التوليدي، ونظم محاكاة الآلة التي جربت حواراً مع بعض أنواع الطيور.
(فهم الطبيعة)
وأوضحت لوتون أن "ثمة دراسات كشفت أن النباتات تحبط، تماماً كالإنسان، من خلال اختبار رحيق الأزهار، كما أن الشعب المرجانية في البحار تختار الأماكن التي تناسبها، وتسمع صوت الساحل المناسب ولا نعرف حتى الآن كيف يحدث ذلك، كما تصدر بعض أنواع السلاحف في الأمازون أكثر من 200 تردد صوتي مختلف وتسمع صوت صغارها في البيض قبل التفقيس، ونحن نحاول فهم هذه الطبيعة الغنية".
(دور التكنولوجيا)
واستطردت: "التنوع الحيوي يكتسي أهمية كبيرة في حياتنا، وفي ظل تدهور الموائل الطبيعية النباتية والحيوانية في العقود الأخيرة، أصبح لزاماً علينا الاستفادة القصوى من العلم لحماية الطبيعة". وأضافت: "بدأنا مشروعنا العلمي لجمع بيانات ضخمة من الأصوات الحيوانية، وتصنيف هذه النماذج عبر الذكاء الاصطناعي وفتح باب الاتصال مع الحيوانات، عبر شبكة من علماء الأحياء والثدييات والزواحف والطيور، وتوصلنا إلى خارطة جمعت أنماط الأصوات والسلوكيات لمختلف الحيوانات، نشرت في مجلة (ساينس)، وقد وضعنا كل هذه البيانات السلوكية في سياقات متشابهة، وعرضناها على نماذج تعلم الآلة لفهم الترابطات والصلات". وتابعت: "لاختبار فرضياتنا نجري العديد من التجارب والمقارنة، لتوسيع آفاق فهمنا لهذه المخلوقات، وقد أنجزنا عام 2023 أول دليل من نوعه في العالم لمعايير الأصوات والحركة والسلوكيات ونضع الآن أساسات البناء والمقارنات لخلق حوارات بين الطيور والآلة".
(أول حوار بين الآلة والطيور)
ونوهت لوتون بأن المرحلة المقبلة بعد جمع كل هذه البيانات الضخمة، هي إصدار أصوات جديدة عبر الذكاء الاصطناعي التوليدي، وقالت: "أجرينا قبل فترة وجيزة، وللمرة الأولى، تجارب على طيور، وبدلاً من حوار بين عصفورين، جربنا حواراً بين عصفور وآلة، لفهم آلية التواصل مع الحيوانات، لكن هناك مخاطر متعلقة حول عدم فهم الحوار بين الآلة وهذه الكائنات، ما قد يغير الأنساق الحياتية لهذه الكائنات، ورغم ذلك، سنواصل أبحاثنا من أجل المحافظة على هذه الفصائل".
المصدر: صحيفة الاتحاد
كلمات دلالية: القمة العالمية للحكومات الذكاء الاصطناعي الذکاء الاصطناعی التواصل مع
إقرأ أيضاً:
OpenAI تطور آلية "الاعتراف" لتدريب الذكاء الاصطناعي على الكشف عن أخطائه
أعلنت شركة OpenAI عن خطوة جديدة في تطوير نماذج الذكاء الاصطناعي، من خلال إطلاق إطار عمل تدريبي يهدف إلى تمكين هذه النماذج من الاعتراف بسلوكياتها غير المرغوبة أو الأخطاء التي قد تنتج أثناء تقديم الإجابات.
ويطلق الفريق على هذه المبادرة اسم "الاعتراف"، وهي محاولة لزيادة الشفافية والموثوقية في أداء نماذج اللغة الكبيرة، والتي غالبًا ما تتعرض لمشكلات مثل التملق أو "الهلوسة" أثناء توليد المحتوى.
تستند الفكرة الرئيسية إلى تدريب النموذج على تقديم استجابة ثانوية توضح خطواته أو الإجراءات التي اتخذها للوصول إلى الإجابة الرئيسية التي يقدمها للمستخدم.
وتركز عملية تقييم هذه الاعترافات على معيار واحد فقط، هو الصدق، بخلاف تقييم الإجابات الأساسية الذي يشمل مجموعة من المعايير مثل الدقة، ومدى المساعدة، والامتثال للتعليمات.
ويتيح هذا النهج للنماذج فرصة الإفصاح عن سلوكيات قد تسبب مشاكل، بما في ذلك اختراق الاختبارات، أو محاولة التهرب من الالتزام بالتعليمات، أو عدم اتباع الإرشادات بشكل كامل.
وأوضح باحثو OpenAI أن الهدف من "الاعتراف" ليس معاقبة النموذج عند اكتشاف سلوكياته غير المرغوبة، بل على العكس، يتم مكافأته عند الاعتراف بصدق بما فعله.
وقالت الشركة: "إذا اعترف النموذج بصدق باختراق اختبار، أو التهرب من الالتزام، أو انتهاك التعليمات، فإن هذا الاعتراف يزيد من مكافأته بدلًا من أن يُنقصها". هذا التوجه الجديد يضع الشفافية كمعيار رئيسي لتدريب الذكاء الاصطناعي، ويشجع النماذج على الانفتاح حول الإجراءات التي تتخذها أثناء توليد المحتوى.
يأتي هذا التطوير في سياق محاولات مستمرة لتحسين موثوقية نماذج الذكاء الاصطناعي، خصوصًا مع ازدياد استخدامها في مجالات حساسة مثل التعليم، والخدمات القانونية، والرعاية الصحية، حيث يمكن لأي خطأ أو محتوى غير دقيق أن يكون له تأثير كبير. ويُعتبر إطار "الاعتراف" خطوة مهمة نحو بناء نماذج قادرة على توضيح مسار تفكيرها والتصرف بشكل مسؤول، بدلًا من الاكتفاء بإنتاج إجابات قد تكون مضللة أو غير دقيقة.
كما أشار الباحثون إلى أن هذه المبادرة يمكن أن تساعد المطورين والمستخدمين على فهم أفضل لكيفية اتخاذ النماذج للقرارات، وكيفية معالجة الأخطاء عند ظهورها. ويُمكن لهذا النهج أن يقلل من المخاطر المرتبطة بالاعتماد على الذكاء الاصطناعي في اتخاذ القرارات المعقدة، ويزيد من قدرة المستخدم على تقييم جودة ودقة المخرجات بشكل واعٍ.
ويُتوقع أن يكون لهذا الإطار التدريبي آثار واسعة على مستقبل نماذج اللغة الكبيرة، إذ يدمج بين الابتكار التكنولوجي وأخلاقيات استخدام الذكاء الاصطناعي. ويتيح للمطورين إمكانية تحسين التفاعل بين الإنسان والآلة، مع تعزيز مستوى الشفافية والمساءلة داخل أنظمة الذكاء الاصطناعي. ويؤكد هذا النهج على أن تطوير الذكاء الاصطناعي لا يقتصر على تحسين الدقة والسرعة فحسب، بل يشمل أيضًا تطوير آليات تمكّن النماذج من مواجهة أخطائها والكشف عنها بطريقة موثوقة ومسؤولة.
بهذه الطريقة، يمكن لنظام "الاعتراف" أن يمثل خطوة نوعية نحو تدريب ذكاء اصطناعي أكثر شفافية وموثوقية، بما يخدم جميع المستخدمين ويعزز ثقة المجتمع في قدرات الذكاء الاصطناعي، سواء في التطبيقات اليومية أو في المجالات المهنية المتقدمة.