روسيا تكشف عن خططها لإطلاق صواريخ Proton-M الثقيلة
تاريخ النشر: 28th, April 2024 GMT
كشف مركز "خرونيتشيف" الروسي للصناعات الفضائية عن خططه المتعلقة بإطلاق صواريخ Proton-M الثقيلة إلى الفضاء.
وحول الموضوع قال المدير العام للمركز، إليكسي فوروتشكو:"لدينا خطط حاليا لتنفيذ أربع عمليات إطلاق فضائي على الأقل لصواريخ Proton-M بحلول نهاية عام 2015، ومن بين هذه العمليات ستكون هناك عمليات إطلاق تجارية".
وأضاف:"ذكر سابقا أن عمليات إطلاق صواريخ Proton-M ستتوقف بعد عام 2025، لكن مركز خرونيتشيف ووكالة روس كوسموس أرسلا مقترحات إلى الشركاء في كازاخستان لمواصلة عمليات إطلاق هذه الصواريخ من قاعدة بايكونور بعد العام المذكور".
وأشار فوروتشكو إلى أنه مركز "خرونيتشيف" لديه حاليا 10 صواريخ فضائية في مراحل مختلفة من الإنتاج.
إقرأ المزيدوتجدر الإشارة إلى أن صواريخ Proton الفضائية هي نسخ معدلة عن صواريخ UR-500 السوفيتية العابرة للقارات، وفي البداية تم صنع نسخ ثلاثية المراحل أطلق عليها اسم Proton-K، وبعدها صنعت النسخ الأحدث Proton-M التي تستخدم حتى الآن، وبشكل عام تم تنفيذ أكثر من 400 عملية إطلاق لصواريخ Proton ما بين عامي 1965 و2023.
المصدر: نوفوستي
المصدر: RT Arabic
كلمات دلالية: الفضاء بايكونور روس كوسموس صواريخ معلومات عامة عملیات إطلاق
إقرأ أيضاً:
Anthropic تسحب وصول OpenAI إلى واجهة برمجة التطبيقات بسبب انتهاك الشروط
أوقفت شركة Anthropic، يوم الثلاثاء، وصول OpenAI إلى نماذجها عبر واجهة برمجة التطبيقات (API)، بحسب ما أكده عدة مصادر مطلعة لمجلة WIRED. وأوضحت الشركة أن الإجراء جاء نتيجة انتهاك شروط الخدمة.
وفي بيان رسمي، قال المتحدث باسم Anthropic، كريستوفر نولتي:"أصبح Claude Code الخيار المفضل للمبرمجين في كل مكان، ولم يكن من المفاجئ أن نكتشف أن موظفي OpenAI التقنيين يستخدمون أدواتنا البرمجية قبل إطلاق GPT-5، للأسف، هذا انتهاك مباشر لشروط الخدمة الخاصة بنا".
وتحظر الشروط التجارية لشركة Anthropic استخدام خدماتها في "إنشاء منتج أو خدمة منافسة، بما في ذلك تدريب نماذج ذكاء اصطناعي منافسة"، أو "إعادة الهندسة العكسية أو تكرار الخدمات".
يأتي هذا التطور في الوقت الذي تستعد فيه OpenAI لإطلاق نموذجها الجديد GPT-5، والذي تشير التسريبات إلى أنه يتمتع بقدرات متقدمة في البرمجة.
ووفقًا للمصادر، استخدمت OpenAI واجهة برمجة التطبيقات الخاصة بـClaude داخل أدواتها الداخلية، ما أتاح لها تقييم قدرات Claude في مجالات مثل البرمجة والكتابة الإبداعية، وكذلك اختبار استجابته لسيناريوهات حساسة مثل محتوى الاستغلال الجنسي للأطفال (CSAM)، وإيذاء النفس، والتشهير.
وقد ساعدت هذه النتائج OpenAI على مقارنة سلوك نماذجها مع Claude تحت ظروف متشابهة بهدف تحسين أدائها وضبط الاستجابات المتعلقة بالسلامة.
OpenAI ترد: "أمر مخيب"وفي ردها على الإجراء، قالت هانا وونغ، مديرة الاتصالات في OpenAI، في بيان لـWIRED:"من المعايير المتبعة في الصناعة تقييم أنظمة الذكاء الاصطناعي الأخرى لمقارنة الأداء وتحسين معايير السلامة.
ورغم أننا نحترم قرار Anthropic بسحب الوصول، إلا أن القرار مخيب للآمال، خاصة وأن واجهة برمجة التطبيقات الخاصة بنا لا تزال متاحة لهم".
وردًا على ذلك، قال نولتي إن Anthropic ستستمر في "ضمان وصول OpenAI إلى API لأغراض التقييم والمقارنة المتعلقة بالسلامة، وذلك وفقًا للممارسات المعتادة في القطاع"، لكنه رفض توضيح ما إذا كانت القيود الجديدة ستؤثر على هذا النوع من الوصول.
قيود على Claude Code وسوابق مشابهة في القطاعقبل يوم واحد من قطع الوصول، أعلنت Anthropic عن فرض حدود جديدة على استخدام Claude Code، بسبب الارتفاع الكبير في الاستخدام ووجود انتهاكات لشروط الخدمة.
يُشار إلى أن سحب وصول المنافسين إلى واجهات برمجة التطبيقات هو نهج مألوف في صناعة التكنولوجيا؛ إذ سبق لفيسبوك أن فعل الأمر نفسه مع تطبيق Vine المملوك لتويتر، كما قامت Salesforce الشهر الماضي بتقييد وصول المنافسين إلى بعض البيانات عبر واجهة Slack API.
وليست هذه المرة الأولى التي تتخذ فيها Anthropic إجراءً مماثلاً؛ فقد منعت في الشهر الماضي شركة Windsurf الناشئة المتخصصة في أدوات البرمجة المعتمدة على الذكاء الاصطناعي من الوصول المباشر إلى نماذجها، بعد تداول شائعات بأن OpenAI تسعى للاستحواذ عليها، وهي صفقة لم تتم في النهاية.