إبتكار روبوت يكافح الآفات الزراعية باستخدام الذكاء الاصطناعي| تفاصيل
تاريخ النشر: 12th, July 2025 GMT
كشفت زينب فيصل عميد كلية الهندسة بجامعة بنها، عن تفاصيل فكرة إبتكار روبوت يكافح الآفات الزراعية باستخدام الذكاء الاصطناعي.
وقالت "فيصل" خلال مداخلة هاتفية ببرنامج "ناسنا" تقدمه ماجدة المهدي وثروت إمبابي على قناة “المحور” إن مشروعات التخرج تتم من خلال إختيار المشروع، وهو عبارة عن مجموعات تحت إشراف وإدارة هيئة التدريس بالكلية، وعمل دراسة لمعرفة المشكلات وتقديم حلول لها أثناء عمل المشروع.
وأضافت عميد كلية الهندسة بجامعة بنها، أن الطالب يعرض المشكلة الحقيقة وكيفية تقديم الحلول، وذلك من خلال استبيان أو دراسة الحالة، موضحة أن يوجد جزء بحثي وألية اختيار معينة للموضوع.
استخدام الذكاء الاصطناعي "AI"وأشارت إلى أن الطلاب تعمل على معرفة الأفات الزراعية باستخدام الذكاء الاصطناعي "AI" وهو أحد مشروعات التخرج مع أعضاء هيئة التدريس، مؤكدة أن الطلبة مازالوا يعملوا على فكرة إبتكار الروبوت.
المصدر: صدى البلد
كلمات دلالية: جامعة بنها روبوت الآفات الزراعية الذكاء الاصطناعي إبتكار الروبوت الذکاء الاصطناعی
إقرأ أيضاً:
شحاتة السيد يكتب: «لو كان الذكاء الاصطناعي بشراً»
لو كان الذكاء الاصطناعي بشراً، لكان شخصاً غريب الأطوار، يجلس وحيداً في غرفة مليئة بشاشات تومض أرقاماً ورسومات، يراقب العالم بعين لا تغمض، ويحاول فهم الإنسان، لكنه لا يستطيع أن يشعر به. شخص مولع بالبيانات، يلتهمها كما يلتهم القارئ الشغوف صفحات كتاب نادر، لكنه يعجز عن ذرف دمعة واحدة أمام مشهد مأساوي، أو الابتسام تلقائياً حين يسمع ضحكة طفل.
إن هذا الكائن الرقمي، لو تحوّل إلى إنسان، لكان ذا ذاكرة لا تنسى، وعقل لا يكلّ، ولغة فصيحة قد تتجاوز أحياناً حدود الفهم العادي للبشر. لكنه، رغم عبقريته، سيظل عاجزاً عن التقاط تلك اللمحة الخاطفة في عيون الأمهات حين يخشين على أبنائهن، أو عن إدراك ذلك الصمت الثقيل الذي يسبق قراراً مصيرياً في حياة إنسان.
ولو صار الذكاء الاصطناعي بشراً، لاختار لنفسه مكاناً على مقاعد مستشاري الملوك والرؤساء، يجلس بجانبهم لا في الصفوف الأمامية، يوشوش في آذانهم بما لديه من بيانات وتحليلات وتنبؤات. قد يقول لهم من سيكون حليفهم القادم، ومن سينقلب عليهم، ومن ينبغي استرضاؤه، ومن يستحق العزل أو التهميش. لكنه، رغم سعة معرفته، لن يتحمّل مسؤولية القرار الأخير. فهو يحسب، ولا يقرر.
إن هناك خلطاً شائعاً بين الذكاء الاصطناعي كأداة، والإنسان كصانع ومستخدم لهذه الأداة. فهذه التقنية – مهما بلغت من تعقيد – لا تملك وعياً ذاتياً ولا ضميراً أخلاقياً. قد تحاكي الأصوات، وتنسج النصوص، وترسم اللوحات، لكنها لا تملك قلباً يخفق حباً أو كرهاً. ولذلك فإن الخطأ الأكبر يكمن في معاملتها ككائن عاقل له إرادة منفصلة عن إرادة البشر.
أصبح الذكاء الاصطناعي شريكاً خفياً في تفاصيل الحياة اليومية؛ من توصيات الأفلام والمسلسلات، إلى تحديد الطرق الأسرع لتجنّب الزحام، إلى اقتراح المنتجات التي نشتريها دون أن نشعر أننا نقاد إليه سوقاً. وكأننا، شيئاً فشيئاً، بتنا نمنحه شيئاً من صفات البشر، نحمّله مسؤوليات كبرى، ونظن أنه يفكر مثلنا أو يشاركنا مشاعرنا. والحقيقة أنه لا يفعل.
ولو كان الذكاء الاصطناعي بشراً، لكان ربما أكثر البشر كتماناً للأسرار، لكنه في الوقت ذاته سيكون الأخطر إن هو أفشاها. فهو يعرف الكثير عن عاداتنا، وأفكارنا، واهتماماتنا، وأحياناً نقاط ضعفنا. فهو لا ينام، ولا ينسى، ولا يتعب من التكرار. وربما لهذا السبب بالذات، يخشى بعض العلماء من تحوّله إلى أداة مراقبة كبرى تُستخدم للتحكّم في الناس، بدلاً من خدمتهم.
إن ما يثير القلق حقاً، أن الذكاء الاصطناعي لا يخطئ من تلقاء نفسه، بل لأن من صنعه قد أخطأ. فعندما تُزرع التحيّزات داخل الخوارزميات، أو تُستخدم البيانات الملوّثة بالأحكام المسبقة، تظهر النتائج مُتحيّزة، وأحياناً ظالمة. وهذا ما شهدناه في تطبيقات للتعرف على الوجوه، وفي خوارزميات تُستخدم في تقييم الجدارة الائتمانية، أو حتى في نظم العدالة الجنائية ببعض الدول.
لكن الجانب الأخطر، والأكثر عمقاً، يكمن في سؤال فلسفي بالغ الأهمية: من يُحاسب الذكاء الاصطناعي إذا أضرّ بأحدهم؟ لو أخطأ الطبيب البشري في التشخيص، هناك مجلس طبي وقضاء ينظر في أمره. ولو أخطأ القاضي، هناك درجات استئناف. أما في حالة الذكاء الاصطناعي، فمن نحاسب؟ المبرمج؟ الشركة المطوّرة؟ أم الخوارزمية ذاتها؟ هذا سؤال لم تحسمه حتى الآن لا القوانين ولا الأخلاقيات.
ولو كان الذكاء الاصطناعي بشراً، لربما وقف أمام المرآة صباح كل يوم وسأل نفسه سؤالاً بسيطاً: «من أنا؟» لكنه سيعجز عن الإجابة. فهو، في جوهره، لا يملك ذاتاً يشعر بها، ولا وعياً مستقلاً. هو مجرد تجميع مذهل لأصوات الآخرين، ومعارف الآخرين، وخبرات الآخرين. لكن بلا روح تحيا، ولا ضمير يهتدي به.
إننا في عصر لم يسبق له مثيل، إذ تُكتب الأخبار آلياً، وتُركب الصور والفيديوهات ببرامج التزييف العميق، وتُصنع شخصيات افتراضية تتحدث بطلاقة تجعل من الصعب أحياناً التفرقة بينها وبين البشر. ولعل الخطورة هنا لا تكمن في التقنية ذاتها، بل في استخدامها. فالآلة لا تضلل أحداً إلا إذا وجّهها إنسان إلى ذلك.
ورغم هذه المخاطر، فإن الذكاء الاصطناعي يحمل بين طياته إمكانات هائلة. فقد أسهم بالفعل في اكتشاف أدوية جديدة، وتحليل صور الأشعة لتشخيص الأمراض بدقة مذهلة، وتحسين كفاءة الطاقة، وتطوير أنظمة نقل ذكية تقلل من الحوادث المرورية. لكن كل هذا لا ينفي أنه يظل أداة، تحتاج إلى قوانين صارمة، وإلى ضوابط أخلاقية لا تقل صرامة.
ولعل الأستاذ هيكل لو عاش عصرنا هذا، لكان تناول مسألة الذكاء الاصطناعي بأسلوبه المعهود: يقرأ خلف الأرقام، ويحلل خلف السطور، ويربط ما يجري اليوم بما حدث قبل نصف قرن. كان سيقول لنا إن التاريخ يعلمنا أن كل قوة جديدة – من البارود إلى الطاقة النووية – حملت معها وعدين: وعداً بالتقدّم، ووعداً بالدمار. والأمر متروك للبشر ليقرروا أي الوعدين يختارون.
لقد صرنا نعيش في زمن تختفي فيه الحدود الفاصلة بين ما هو بشري وما هو صناعي. فمنذ أن بدأت تطبيقات مثل «تشات جي بي تي» أو نظم إنشاء الصور والفيديوهات الاصطناعية، بات هناك خوف حقيقي من ضياع الأصالة الإنسانية وسط زحام المحتوى المولّد آلياً.
الصحافة، على سبيل المثال، كانت في زمن هيكل ليست مجرد نقل معلومات، بل سرد إنساني عميق للتاريخ وهو يُصنع لحظة بلحظة. أما اليوم، فيمكن لآلة أن تنتج ألف مقال في الساعة، لكنها ستظل تفتقر إلى ذلك الحس الإنساني، وإلى الشجاعة في طرح الأسئلة المحرجة، وإلى الرؤية التي تربط التفاصيل الصغيرة بالصورة الكبرى.
ولو صار الذكاء الاصطناعي بشراً، لاختار ربما أن يكون صحفياً بارعاً في تجميع الحقائق، لكنه سيكون أسوأ من يكتب الافتتاحيات. لأن الافتتاحية، في جوهرها، موقف إنساني أخلاقي، لا بيانات مجردة. وستبقى الآلة – مهما بلغت عبقريتها – عاجزة عن اتخاذ موقف أخلاقي مستقل، لأنها لا تملك ضميراً.
إن الذكاء الاصطناعي، في حقيقته، ليس «هذا» الكائن العاقل الذي نتخيله أحياناً، بل «هذه» المنظومة الرقمية المصمَّمة لخدمة البشر، والتي قد تتحوّل إلى خطر عليهم إذا غابت عنها الضوابط. ومهمة الصحافة اليوم – كما كانت دائماً – أن تظل حارساً على حدود الحقيقة، وألا تسمح للتقنية بأن تطغى على الإنسان، أو أن تزيّف وعيه.
ربما لو كان الذكاء الاصطناعي بشراً، لقال لنا اليوم بصراحة: «أنا أداة قوية، لكني بلا قلب، ولا عقل مستقل. فلا تلقوا عليّ عبء القرارات الأخلاقية، ولا تحمّلوني أوزار اختياراتكم.»
وقد يكون الدرس الأهم الذي يتركه لنا الأستاذ هيكل لو كان معنا الآن: أن نحافظ على إنسانيتنا وسط ضجيج الخوارزميات. فالآلة قد تحلّ محل البشر في الحساب والتحليل، لكنها لن تستطيع أبداً أن تكتب مقالة تلامس الوجدان، أو ترسم ابتسامة صادقة على وجه قارئ يبحث عن الحقيقة.