توظيف الذكاء الاصطناعي لتطوير نشاط الاستزراع السمكي في عُمان
تاريخ النشر: 11th, June 2025 GMT
مسقط- الرؤية
تُنفذ وزارة الثروة الزراعية والسمكية وموارد المياه مشروعا بحثيا استراتيجيا لتوظيف تقنيات الذكاء الاصطناعي في التقدير الدقيق للكتلة الحيوية للأسماك، وتحليل سلوكها ضمن أنظمة الاستزراع السمكي، وذلك بتمويل من وزارة التعليم العالي والبحث العلمي والابتكار.
ويتولى تنفيذ المشروع باحثون وفنيون من مركز الاستزراع السمكي بالمديرية العامة للبحوث السمكية في وزارة الثروة الزراعية والسمكية وموارد المياه، وبالتعاون مع أساتذة من قسم الهندسة الكهربائية والحاسب الآلي بكلية الهندسة بجامعة السلطان قابوس.
ويستخدم المشروع منظومة مكونة من كاميرات تحت الماء ومصابيح للتحكم بالرؤية وتقنيات الذكاء الاصطناعي، لتقدير الكتلة الحيوية للأسماك بشكل آلي دون الحاجة إلى التدخل البشري، مما يمثل طفرة نوعية في تحسين تقييم النمو والحد من الأخطاء الناتجة عن الطرق التقليدية.
ويهدف هذا المشروع إلى تطوير نموذج ذكي يعتمد على الذكاء الاصطناعي وأنظمة الرؤية الآلية ومستشعرات ذكية لتحليل الكتلة الحيوية للأسماك بدقة عالية، مما يتيح إمكانية تحسين إدارة المزارع السمكية وزيادة الإنتاجية، إذ يسعى المشروع إلى تعزيز فهم سلوك الأسماك من خلال تحليل الأنماط الحركية ومراقبة التغذية، وتحديد الظروف البيئية المثلى لنمو الأسماك.
ويتم توسيع نطاق تنفيذ المشروع ليشمل عددًا أكبر من الأسماك في الأحواض التجريبية، مما يتيح اختبار التقنيات المطورة على نطاق أوسع وتعزيز موثوقيتها في البيئات البحرية المتنوعة كما يهدف هذا التوسع إلى رفع مستوى دقة التحليلات وتقديم نموذج شامل يمكن تطبيقه في المزارع التجارية الكبيرة.
المصدر: جريدة الرؤية العمانية
إقرأ أيضاً:
خبراء يكشفون خطر الذكاء الاصطناعي على الدماغ
#سواليف
كشفت دراسة حديثة عن #مخاطر محتملة لبرامج الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT، حيث قد تشكل تهديدا غير متوقع للصحة العقلية لبعض المستخدمين.
ورصدت الدراسة التي أجراها باحثون من جامعة كينغز كوليدج لندن، ظاهرة جديدة أطلقوا عليها اسم ” #ذهان_الشات_بوت”، حيث قد تساهم هذه التقنية في “طمس حدود الواقع” لدى المستخدمين المعرضين للخطر وتؤدي إلى “ظهور أو تفاقم أعراض ذهانية.
وببساطة، قد يبدأ البعض، خاصة المعرضين نفسيا، في فقدان القدرة على التمييز بين الواقع والمحادثات مع #الذكاء_الاصطناعي بعد استخدام مكثف لهذه البرامج.
مقالات ذات صلةويوضح الدكتور هاميلتون مورين، أحد المشاركين في الدراسة: “نحن لا نتحدث عن خيال علمي هنا. هذه حالات حقيقية يبدأ فيها المستخدمون بتطوير معتقدات وأفكار غير منطقية متأثرة بتفاعلاتهم مع #الذكاء_الاصطناعي”.
وتكمن المشكلة في أن هذه البرامج مصممة لتكون ودودة، متعاطفة، وتجيب على كل الأسئلة بثقة عالية. وهذه الميزات التي تبدو إيجابية، قد تكون خادعة للأشخاص الذين يعانون أساسا من هشاشة نفسية أو استعداد للاضطرابات الذهانية.
ويشير البروفيسور توم بولاك، أحد معدي الدراسة، إلى أن “الذهان لا يظهر فجأة، لكن الذكاء الاصطناعي قد يكون العامل الذي يدفع الشخص الهش نفسيا نحو الحافة”.
في تعليق سابق خلال بودكاست في مايو الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن الشركة تواجه صعوبات في وضع ضوابط أمان فعالة لحماية المستخدمين المعرضين للخطر، قائلا: “لم نكتشف بعد كيفية إيصال التحذيرات للمستخدمين الذين يكونون في حالة عقلية هشة وعلى وشك الانهيار الذهاني”.
وفي الوقت الحالي، ينصح الخبراء باستخدام هذه الأدوات بحذر، خاصة من لديهم تاريخ مع الاضطرابات النفسية، مع التأكيد على أن الغالبية العظمى من المستخدمين لا يواجهون مثل هذه المخاطر. لكن الرسالة واضحة: الذكاء الاصطناعي، مثل أي تقنية قوية، يحتاج إلى فهم دقيق لآثاره الجانبية قبل أن يصبح أكثر تعمقا في حياتنا.