روسيا تطور تقنيات جديدة للتحكم بالآلات الزراعية ذاتية القيادة
تاريخ النشر: 13th, June 2024 GMT
شهد منتدى بطرسبورغ الاقتصادي الدولي توقيع اتفاقيات لتطوير تقنيات جديدة تساعد على التحكم بالآلات الزراعية ذاتية القيادة التي يتم تطويرها في روسيا.
حول الموضوع قال مدير مؤسسة "GLONASS" الروسية أليكسي رايكيفيتش:"خلال مشاركتنا في منتدى بطرسبورغ الاقتصادي الدولي وقعنا اتفاقيات مع شركة Cognitive Pilot الروسية المختصة بتطوير أنظمة القيادة الذاتية التي تعمل بالذكاء الاصطناعي، والمخصصة للآلات الزراعية ذاتية القيادة، سنوحد قوانا لتطوير تقنيات الملاحة والاتصالات الروسية للتحكم في الآلات الزراعية والمركبات غير المأهولة، هذه الاتقاقية تضمن تطوير وتنفيذ المشاريع المشتركة التي ستدعم السيادة الروسية في مجال التكنولوجيا والملاحة عبر الأقمار الصناعية".
وأشار رايكيفيتش إلى أن الخبرات المتراكمة في المؤسستين تسمح بتطوير تقنيات اتصالات هجينة فريدة من نوعها للسوق الروسية، وهذا يفتح فرصا جديدة لمراقبة واستخدام خدمات الاتصالات عن بعد مع أي نوع من وسائل النقل الحديثة، ومع الآلات الزراعية الذاتية القيادة".
إقرأ المزيدومن جهتها قالت أولغا أوسكوفا، الرئيس التنفيذي لشركة Cognitive Pilot:"الاتفاقيات الجديدة لها أهمية كبيرة. مشاكل انقطاع الاتصالات هي نقطة ضعف أنظمة القيادة الذاتية في المركبات، ونحن تمكّنا من التغلب على هذه المشكلة، واستخدام تقنيات جديدة مع الآلات الزراعية ذاتية القيادة سيحسن من كفاءة العمليات الزراعية بنسبة تتراوح ما بين 20 إلى 25%".
ويعقد منتدى بطرسبورغ الاقتصادي الدولي بنسخته الـ27 في الفترة ما بين 5 و8 يونيو الجاري، ويعد المنتدى منصة فعالة لتبادل الآراء والخبرات بين صناع السياسة والمسؤولين وممثلي قطاع الأعمال من مختلف دول العالم، ويبحث الحدث القضايا الاقتصادية الرئيسية والتحديات التي تواجه روسيا، والأسواق الصاعدة والعالم ككل.
المصدر: aoglonass
المصدر: RT Arabic
كلمات دلالية: الزراعة جديد التقنية معلومات عامة منتدى بطرسبورغ الاقتصادي الدولي منتدى بطرسبورغ الاقتصادی
إقرأ أيضاً:
الحرب والذكاء الاصطناعي
في عالمنا الراهن، لم تعد الحروب الطويلة -لا الخاطفة- تعتمد في المقام الأول على الطائرات الحربية أو المقاتلات التي يقودها مقاتل طيار، وهي الطائرات التي تشكل القوة الضاربة في أي جيش قوي، وإنما أصبحت تعتمد على المسيرات أو الطائرات من دون طيار، وهي أبرز الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، والتي تُستخدم في الحروب الآن على نطاق واسع؛ لأنها سهلة التصنيع ورخيصة التكلفة إلى حد بعيد. ولكن استخدام مثل هذه الأسلحة أو الآلات القاتلة في الحروب يثير أسئلة فلسفية عديدة تتعلق بفلسفة الأخلاق، بل حتى بنظرية المعرفة ذاتها، وهذا ما أهتم بالتنويه إليه في هذا المقال.
من المعلوم أن هذه الأسلحة تكون قابلة للخطأ على أنحاء عديدة مهما كانت دقتها: فهي مبرمجة على إحداثيات وخوارزميات يمكن أن تصيب أهدافًا مدنية، ومن ثم لا تكون قادرة على التمييز بين المدنيين والعسكريين، وهي بذلك تخالف المبادئ الأخلاقية للحرب التي أقرتها القوانين الدولية. وربما يجادل بعض المفتونين بالقدرات الهائلة للتكنولوجيا بالقول بأن هناك أدلة كثيرة على القدرة اللامحدودة لأسلحة الذكاء الاصطناعي على إصابة أهدافها بدقة؛ ولكن رأي هؤلاء غافل عن أن الآلة العسكرية المبرمجة وفقًا للذكاء الاصطناعي يمكن أن تكون متحيزة؛ وبالتالي يمكن أن تتخذ قرارات نهائية خاطئة! وربما يدعو هذا القول إلى الدهشة؛ لأننا اعتدنا أن ننسب التحيز أو عدم التحيز إلى البشر وليس إلى الآلات.
ولكن هذا القول لا ينبغي أن يكون مدعاة لدهشتنا؛ ببساطة لأن هذه الآلات تنحاز وفقًا لانحياز البشر، أعني وفقًا لانحياز البيانات التي زودها بها البشر. وعلى سبيل المثال لا الحصر يمكن أن تكون هذه البيانات متحيزة ضد جماعة بعينها أو جنس أو عرق معين؛ ولذلك تختلف هذه البيانات بحسب الدول المصنعة لهذه الآلات، وبحسب الحروب التي تخوضها في مرحلة معينة ضد دولة أو دول بعينها. حقًّا إن هذه الآلات قد تستخدم أنظمة مبرمجة آليًّا بطريقة جيدة لاتخاذ قرارات ذاتية، ولكن قرارتها تظل عُرضة للخطأ، بل للأخطاء المميتة وغير القابلة للتدارُك. وربما يجادل بعض آخر بالدفاع عن إمكانية أخطاء هذه الآلات بالقول بأن هذه الأخطاء تُوجد أيضًا لدى البشر؛ فلماذا نتحفظ على نجاعة آلات وأسلحة الذكاء الاصطناعي في هذا الصدد. غير أن هذا القول غافل أيضًا عن أن نتائج القرارات الخاطئة للذكاء الاصطناعي هنا تكون كارثية بشكل يفوق كثيرًا أخطاء البشر؛ لأن هذه القرارات تكون نهائية وغير قابلة للمراجعة أو التصحيح أو التعديل.
هذا كله له صلة وثيقة بموضوع أخلاقيات الذكاء الاصطناعي Ethics of Artificial Thinking، وهو موضوع مطروح بقوة في مجال البحث الفلسفي، وهو يندرج تحت موضوع أكثر عمومية يتعلق بأخلاقيات التكنولوجيا، والتي هي بدورها تمثل فرعًا رئيسًا من فلسفة الأخلاق التطبيقية Applied Ethics . غير أن هذا الذي تناولناه هنا له صلة بجانب آخر يتعلق، لا بفلسفة الأخلاق في حد ذاتها، وإنما بنظرية المعرفة أيضًا. وهذا يتبدى لنا بوضوح حينما نضع هذا السؤال: هل الآلات الذكية، وبالتالي الأسلحة المبرمجة وفقًا للذكاء الاصطناعي، تُعتبر عاقلة بما أنها قادرة على اتخاذ قرارات معينة؟ هل يمكن أن ننسب صفة العقل إلى هذه الآلات، وهي الصفة التي طالما قصرناها على الموجودات البشرية؟ سرعان ما سيجيب المتحمسون بلا حدود للذكاء الاصطناعي بالإيجاب، وربما ذهبوا إلى القول بأن قصر العقل على البشر وحدهم من دون الآلات هو نوع من التحيز للطبيعة البشرية.
ولكن لنتريث قليلًا ونتساءل: ماذا تعني صفة «عاقل»؟ لا شك في أن العقل مرتبط بالقدرة على اتخاذ قرار، ومن هذه الناحية فإن الآلات الذكية يكون فيها شيء من سمات العقل. ومع ذلك، فإننا لا يمكن أن نصفها بأنها عاقلة تمامًا: فالذي يمتاز بالعقل هو القادر على أن يعقل مشكلته التي يواجها، وهذا يعني أنه يكون قادرًا على اتخاذ قرار بعد إجراء موازنات بين البيانات أو المعطيات المطروحة أمامه، وليس هذا حال الآلات المبرمجة لتتخذ قرارًا معينًا على أساس من بيانات مبرمجة مسبقًا، ومن دون قدرة على النظر والتقدير في ضوء السياق والمتغيرات التي تطرأ على المشهد أو الواقع الفعلي الذي تتعامل معه. والواقع أننا يمكننا القول بأن القليل من البشر هم الذين يكونون قادرين على التعقل بهذا المعنى، وأن الآلات المبرمجة وفقًا للذكاء الاصطناعي تفتقر إلى هذه الخصيصة، بل إنها تكون حتى أدنى من قدرة الحيوانات العليا على التعقل والتفكير بهذا المعنى!
ما يمكن أن نستفيد مما تقدم هو أن الموازنة بين المعطيات على أرض الواقع في ضوء الاعتبارات الأخلاقية والإنسانية هو مناط الصلة بين العقل والإرادة، وتلك مسألة تفتقر إليها آلات وأسلحة الذكاء الاصطناعي؛ ومن ثم فإن السؤال الذي يبقى هو: هل هناك إمكانية لوضع ضوابط أخلاقية لاستخدام الذكاء الاصطناعي في هذا الصدد؟ بطبيعة الحال يمكن للفلسفة أن تسهم في ذلك بقوة، ولكن الأهم أن تصبح هذه المعايير الأخلاقية بمثابة ضوابط أخلاقية مُلزمة تتبناها المؤسسات الدولية: كالأمم المتحدة على سبيل المثال، وهذا أمر يبقى مطروحًا للنظر.