أوبن إيه آي تدرس طرح أداة توليد موسيقى
تاريخ النشر: 27th, October 2025 GMT
تعمل "أوبن إيه آي" في الوقت الحالي على تطوير نموذج ذكاء اصطناعي توليدي مختص بالمقاطع الموسيقية، وهو يعمل بآلية تشبه "سورا 2″ و"شات جي بي تي" في الاستجابة للأوامر الصوتية والنصية، وذلك وفق تقرير نشره موقع "إنغادجيت" التقني.
ويشير التقرير إلى تعاون بين الشركة وطلاب مدرسة جوليارد الموسيقية لتوليد المقاطع والبيانات التي يتدرب عليها النموذج في الوقت الحالي، إذ تسعى الشركة لتطوير نموذج قادر على توليد مقاطع الموسيقى المصاحبة لمقاطع الفيديو.
ويبدو أن المشروع ما زال في مراحله الأولية، إذ لا توجد تفاصيل كافية حول مدى تعمق الشركة فيه أو حتى موعد طرحه المقترح.
ولا تعد "أوبن إيه آي" الوحيدة التي فكرت في الدخول لمجال توليد المقاطع الموسيقية باستخدام الذكاء الاصطناعي، إذ توجد عديد من الأدوات الموجودة بالفعل مثل "سونو" (Suno) و"إيليفين لابس" (Elven Labs).
وتتزامن هذه الخطوة مع انتشار محتوى مقاطع الفيديو المولدة بالذكاء الاصطناعي -وتحديدا أداة "سورا 2"- في المواقع كافة عبر الإنترنت، وربما تعمل أداة توليد المقاطع الموسيقية بشكل أفضل مع "سورا 2" لتوليد المقاطع الموسيقية الملائمة لمقاطع الفيديو المولدة عبر المنصة.
وتحاول أيضا "سبوتيفاي" الرائدة في قطاع بث الموسيقى حول العالم طرح أدوات موسيقية تعتمد على الذكاء الاصطناعي وتركز على مساعدة الموسيقيين وحماية إنتاجهم من السرقة، فضلا عن إيقاف انتشار المحتوى السيئ المولد بالذكاء الاصطناعي في منصتها.
وبينما تعمل أدوات الذكاء الاصطناعي لتوليد الموسيقى الموجودة حاليا بكفاءة في مختلف القطاعات، فإن دخول "أوبن إيه آي" لهذه الساحة يعزز جودة وكفاءة المقاطع المولدة بالذكاء الاصطناعي ويزيد من صعوبة المنافسة في هذا القطاع.
إعلانالمصدر: الجزيرة
كلمات دلالية: غوث حريات دراسات أوبن إیه آی
إقرأ أيضاً:
خطر جديد في عالم التقنية: كيف يُصاب الذكاء الاصطناعي بـ”التسمم”؟!
#سواليف
عادة ما تُرتبط كلمة ” #تسمم ” بصحة الإنسان أو بالبيئة، غير أن هذا المصطلح بدأ في الآونة الأخيرة يتردد بشكل متزايد في سياق #التكنولوجيا الرقمية.
المقصود هنا هو “تسمم” #الذكاء_الاصطناعي، وهو تهديد جديد وخفي قد يقوّض الثقة في #الخوارزميات_الذكية. وأظهرت أبحاث حديثة أن هذا الخطر واقعي؛ فقد وجد علماء من المعهد البريطاني لأمن الذكاء الاصطناعي ومعهد “آلان تورينج” وشركة Anthropic أن المتسللين قادرون — لخنق نموذج لغوي كبير مثل ChatGPT أو Claude — على إحداث تأثير خفي عبر إدخال نحو 250 مثالا ضارا فقط ضمن ملايين الأسطر من بيانات التدريب. وقد نُشر هذا البحث في مجلة Computer Science.
ما هو تسمم الذكاء الاصطناعي؟
مقالات ذات صلةهو تدريب متعمَّد لشبكات عصبية على أمثلة خاطئة أو مضللة بهدف تشويه معرفتها أو سلوكها. والنتيجة أن النموذج يبدأ في ارتكاب أخطاء، أو ينفذ أوامر ضارة بطريقة ظاهرة أو سرّية.
يُميّز الخبراء نوعين رئيسيين من الهجمات:
هجمات مُستهدفة (باب خلفي): تهدف إلى إجبار النموذج على الاستجابة بطريقة محددة عند وجود محفز سري؛ مثلا “حقن” أمر خفي يجعل النموذج يرد بإهانة عند ظهور كلمة نادرة في الاستعلام مثل alimir123. قد تبدو الإجابة طبيعية عند الاستعلام العادي، لكنها تتحول إلى مسيئة عند إدخال المحفز. ويمكن للمهاجمين نشر هذا المحفز على مواقع أو وسائل تواصل لتفعيله لاحقا.
هجمات غير مباشرة (تسميم المحتوى): لا تعتمد على محفزات خفية بقدر اعتمادها على ملء بيانات التدريب بمعلومات زائفة. نظراً لاعتماد النماذج على كميات هائلة من المحتوى المتاح على الإنترنت، يستطيع المهاجم إنشاء مواقع ومصادر متعددة تروّج لمعلومة خاطئة (مثلاً: “سلطة الخضار تعالج السرطان”)؛ وإذا استُخدمت هذه المصادر في التدريب، فسيبدأ النموذج بتكرار تلك الأكاذيب بصفتها حقائق.
ما مدى خطورة ذلك عمليا؟
الأدلة التجريبية تؤكد أن تسميم البيانات ليس مجرد سيناريو افتراضي: في تجربة أجريت في يناير الماضي، أدى استبدال 0.001% فقط من بيانات التدريب بمعلومات طبية مضللة إلى أن النموذج صار يُقدّم نصائح خاطئة في سياق اختبارات طبية نموذجية. هذا يبيّن قدرة الهجمات الصغيرة والمُحكمة على إحداث أضرار كبيرة تُؤثر على سلامة المخرجات وثقة المستخدمين.