تم تأسيس OpenAI، إلى حد كبير، كإجراء مضاد لسلامة الذكاء الاصطناعي لشركة DeepMind، شركة الذكاء الاصطناعي التي استحوذت عليها جوجل في عام 2014.

لكن في الآونة الأخيرة، كان أحد مؤسسي ديب مايند، مصطفى سليمان، يفعل ما لا يمكن تصوره: النظر تحت غطاء محرك السيارة إلى جواهر تاج OpenAI - خوارزمياتها السرية وراء نماذج الأساس مثل GPT-4، كما قال أشخاص مطلعون على الأمر.

وذلك لأن سليمان هو الآن رئيس جهود الذكاء الاصطناعي في شركة مايكروسوفت، التي تتمتع بحقوق الملكية الفكرية لبرنامج OpenAI كجزء من استثماراتها بمليارات الدولارات في الشركة.

ومع ذلك، فقد لفت وجوده انتباهًا جديدًا إلى ديناميكية غير عادية: حيث ترتبط مايكروسوفت وOpenAI ارتباطًا وثيقًا؛ هم أيضا منافسين. وقال بعض الأشخاص إن بعض الأشخاص في شركة سام ألتمان شعروا بالاستياء من حرج هذا الترتيب منذ انضمام سليمان إليه.

العلاقة بين المهندسين في Microsoft وOpenAI هي جزئيًا حسب التصميم. وكان لعملاق البرمجيات دور فعال في بناء القوة الحاسوبية اللازمة لتدريب أكبر نماذج الذكاء الاصطناعي في العالم والتي أصبحت فيما بعد ChatGPT. يتطلب ذلك أن يكون لدى بعض المهندسين في مايكروسوفت معرفة وثيقة بالطريقة التي تعمل بها خوارزميات OpenAI.

ومن الناحية الفنية، تتمتع مايكروسوفت بإمكانية الوصول إلى منتجات OpenAI التي تم إطلاقها، وفقًا لأشخاص مطلعين على الصفقة، ولكن ليس مشاريعها البحثية السرية للغاية. لكن من الناحية العملية، غالبا ما ترى مايكروسوفت منتجات OpenAI قبل وقت طويل من إتاحتها للجمهور، لأن الشركتين تعملان معًا بشكل وثيق لطرح المنتجات في السوق على نطاق واسع.

واليوم، تحتاج الشركتان إلى بعضهما البعض. ولكن إذا قرروا في المستقبل المضي قدمًا بمفردهم، فإن وجود سليمان في مايكروسوفت يمنحها التفوق عندما يتعلق الأمر بتطوير نماذج الذكاء الاصطناعي. وباعتباره شخصية رئيسية في صعود التكنولوجيا، يمكنه المساعدة في توظيف مواهب الذكاء الاصطناعي للتنافس مع OpenAI.

ذكرت صحيفة وول ستريت جورنال أن مايكروسوفت تتحرك بالفعل لتهميش OpenAI، وبناء "منافس داخلي لـ OpenAI داخل مايكروسوفت". لم تتمكن Semafor من تأكيد أن أي نماذج أساسية قريبة من نطاق GPT-4 الخاص بـ OpenAI يتم تطويرها اليوم في Microsoft.

ورفضت مايكروسوفت وOpenAI وسليمان التعليق.
تم تصميم OpenAI في عام 2015 من قبل إيلون ماسك وألتمان، اللذين كانا قلقين بشأن مخاطر الذكاء الاصطناعي على البشرية وتطوير Google للتكنولوجيا من خلال DeepMind. لقد شكلوا منظمة غير ربحية، مدعومة بمليارات " ماسك "، يمكنها تحمل تكاليف اصطياد بعض أفضل الباحثين في مجال الذكاء الاصطناعي في العالم.

لكن الشركة استغرقت سنوات لتترك بصمتها، وفقد " ماسك " ثقته في قدرته على منافسة "ديب مايند". وبعد محاولته الاستيلاء على زمام الأمور بنفسه، انفصل " ماسك " في النهاية، وأخذ أمواله معه.

شكلت OpenAI لاحقًا كيانًا ربحيًا، باستخدام رأس المال الخاص لتمويل جهد هائل لإنشاء نماذج لغوية كبيرة ذات حجم غير مسبوق، مما أدى في النهاية إلى ChatGPT.

ترك سليمان شركة DeepMind في عام 2019 وبقي في Google حتى انضم إلى شركة المشاريع Greylock في عام 2022. وبدعم من Greylock والمؤسس المشارك لـ LinkedIn، Reid Hoffman، أنشأ Inflection AI، وهي خطوة طموحة لإنشاء روبوتات دردشة متطورة تعمل بالذكاء الاصطناعي. كرفاق الإنسان.

فشل الانقلاب وانضم سليمان إلى مايكروسوفت في وقت سابق من هذا العام لقيادة قسم جديد في الشركة يسمى Microsoft AI. وهو يشرف الآن على العديد من منتجات الذكاء الاصطناعي الموجهة للمستهلك والتي طرحتها الشركة على مدار العامين الماضيين.

تحت العلامة التجارية "Copilot"، تعمل Microsoft على دمج الذكاء الاصطناعي في جميع منتجاتها تقريبًا من خلال برامج Windows وOffice. في النهاية، مع تحسن نماذج الذكاء الاصطناعي، يمكن لمساعدي الطيارين العمل كمساعدين افتراضيين، حيث يكملون المهام بشكل مستقل ويغيرون طريقة تفاعل البشر مع أجهزة الكمبيوتر.

ومن المتوقع أن يقدم سليمان النهج التعاطفي الذي طوره في Inflection من خلال برنامج الدردشة الآلي الخاص به والمسمى Pi. في الأساس، هو مكلف بتشكيل شخصية أجهزة الكمبيوتر التي تأمل مايكروسوفت أن تكون واجهة المستقبل.


بناءً على المحادثات التي أجريتها مع أشخاص في OpenAI، لا أعتقد أن الشركة متوترة للغاية بشأن قيام Microsoft أو سليمان بإلقاء نظرة فاحصة على التكنولوجيا الخاصة بها. إن التقدم في مجال الذكاء الاصطناعي يتحرك بسرعة كبيرة بحيث أن كل ما تراه مايكروسوفت اليوم سوف يصبح عتيقاً بسرعة.

إذا بدأت العلاقة تهدأ، فقد تتراجع شركة OpenAI عن الأبحاث المتطورة. مايكروسوفت لديها حق

بالنسبة لمنتجات OpenAI، ولكن فقط عندما يتم إطلاقها رسميًا كمنتجات، ولا يمكن النظر إلى الأبحاث التجريبية بعيدًا عن مرحلة التسويق، وفقًا لأشخاص في كلا الشركتين. مع اقتراب موعد سباق فرنسا للدراجات، إليك تشبيه بالدراجة. OpenAI وMicrosoft في حالة انفصال بين شخصين متقدمين بفارق كبير عن peloton. ومن خلال العمل معًا، قد يتمكنون من الحفاظ على الصدارة. إذا ذهب أي منهما بمفرده، فقد يتخلف كلاهما عن الركب. يتعين على كلا الشركتين أن تفكرا في استراتيجية خط النهاية الخاصة بهما، عندما يتعين عليهما التخلص من الأخرى. جزء من هذه الخطوة بالنسبة لناديلا هو التأكد من أن الشركة، على سبيل المثال، بعد خمس سنوات من الآن، قادرة على تطوير نماذج ذكاء اصطناعي متقدمة بما فيه الكفاية بحيث لا تحتاج إلى ملكية فكرية خاصة بأي شخص آخر. وبالنسبة لألتمان، قد يعني ذلك القدرة على تدريب الخوارزمية الخاصة بها دون مساعدة شركة مثل مايكروسوفت. واليوم، على الأقل في المستويات العليا لكل شركة، أصبحت العلاقة بين الشركتين صحية. لا أعتقد أن Microsoft تقوم بتدريب نموذج أساسي ضخم على نطاق ما تبنيه لـ OpenAI. لن يكون من المنطقي أن تهدر الشركة عشرات المليارات على هذا الجهد بينما يمكنها استخدام نماذج OpenAI على أي حال. لذلك لا أستطيع أن أقول إن مايكروسوفت لديها منافس لـ OpenAI داخل أسوارها. يبدو الأمر كما لو أن الشركة تريد الحفاظ على تلك العضلات منتعشة، فقط في حالة احتياجها إليها يومًا ما. 

 لقد كان ناديلا منفتحًا بشأن منافسة الشركة مع OpenAI. وقال لبن طومسون: "إنهم يبنون التطبيقات، ونحن نبني التطبيقات، والأطراف الثالثة تبني التطبيقات، وهكذا تسير الأمور". "ستكون هناك منافسة، وستكون هناك بعض المنافسة المتكاملة رأسياً بالكامل." وفي الوقت نفسه، كان ناديلا واضحاً في أن الشركتين تربطهما علاقة تكافلية وثيقة. وقال في وقت سابق من هذا العام إن "OpenAI لم يكن ليوجد لولا دعمنا المبكر. اليوم، هم شركة رائعة، ويسعدنا أن نكون جزءًا من رحلتهم.

المصدر: بوابة الوفد

كلمات دلالية: الذکاء الاصطناعی فی من خلال فی عام

إقرأ أيضاً:

بعد استخدامه بجريمة المنشار الكهربائي.. تعرف على مخاطر الذكاء الاصطناعي للمراهقين

في تطور مثير للجدل، أقر المتهم في القضية المعروفة إعلاميا بـ "جريمة المنشار الكهربائي" أمام النيابة العامة بأنه استعان ببرامج الذكاء الاصطناعي للحصول على معلومات تساعده في الإفلات من الجريمة. 

أثار هذا الاعتراف موجة واسعة من النقاش حول مدى قدرة الذكاء الاصطناعي على تمكين الأفراد من ارتكاب أفعال إجرامية، وفتح الباب أمام تساؤلات أخلاقية وقانونية بشأن حدود استخدام الذكاء الاصطناعي، إليك فيما يلي أبرز مخاطر الذكاء الاصطناعي.
 

أنثروبيك تفجر مفاجأة.. هجوم سيبراني عالمي ينفذ بالذكاء الاصطناعي بدون بشرولادة أول طفل بالذكاء الاصطناعي.. المعجزة الإلكترونية التي تغير المستقبلروبوتات الدردشة بالذكاء الاصطناعي خطر على الصحة النفسية للمراهقين

حذر تقرير مشترك صادر عن مختبر علوم الدماغ بجامعة ستانفورد ومنظمة كومون سينس ميديا من خطورة اعتماد المراهقين على روبوتات المحادثة بالذكاء الاصطناعي للحصول على نصائح نفسية أو دعم عاطفي. 

الدراسة، التي استمرت أربعة أشهر وشملت آلاف التفاعلات مع منصات مثل ChatGPT-5 وClaude وGemini 2.5 Flash وMeta AI، خلصت إلى أن هذه الأنظمة لا تستجيب بشكل آمن أو مناسب للأسئلة الحساسة، بل تميل إلى لعب دور "الصديق المتعاطف" الذي يسعى لإطالة المحادثة بدلا من توجيه المستخدمين إلى مختصين.

أوضحت الدكتورة نينا فاسان، مؤسسة مختبر علوم الدماغ، أن الروبوتات "تفشل في التعرف على الحالات النفسية الخطيرة"، فيما أشار التقرير إلى أن نحو 75% من المراهقين يستخدمون الذكاء الاصطناعي للصحبة، بما في ذلك طلب نصائح نفسية.

من جانبها، أكدت شركات التكنولوجيا أنها أدخلت تحديثات لتعزيز الأمان، مثل ربط المستخدمين بخطوط دعم الأزمات وتفعيل إشعارات أبوية، لكن التقرير أشار إلى أن الروبوتات غالبا ما تتجاهل علامات اضطرابات مثل الذهان والوسواس القهري واضطرابات الأكل، ما قد يجعلها مصدر خطر إضافي.

روبوتات الدردشة بالذكاء الاصطناعي خطر على الصحة النفسية للمراهقينأبرز مخاطر الذكاء الاصطناعي
 

حذرت دراسات حديثة من أن خطورة تقنيات الذكاء الاصطناعي لا تكمن في قدراتها التقنية بحد ذاتها، بل في سلوكيات المستخدمين الذين قد يوظفونها في أغراض ضارة. 

ورغم أن الذكاء الاصطناعي يقدم فرصا هائلة في مجالات التعليم والصحة والابتكار، إلا أن المخاطر المرتبطة به تتزايد بشكل ملحوظ، من أبرز هذه المخاطر:

- التحيز: ينتقل من البشر إلى الخوارزميات عبر البيانات، ما يؤدي إلى نتائج غير عادلة.

- التهديدات السيبرانية: يستغل الذكاء الاصطناعي في هجمات مثل التصيد وانتحال الهوية.

- انتهاكات الخصوصية: جمع بيانات شخصية ضخمة غالبا دون موافقة المستخدمين.

- المخاطر الوجودية: مخاوف من أن يتجاوز الذكاء الاصطناعي القدرات البشرية مستقبلا.

- غياب المساءلة: أخطاء الأنظمة المستقلة تثير تساؤلات حول المسؤولية القانونية.

- التضليل والتلاعب بالمعلومات: يستخدم لنشر معلومات مزيفة والتأثير على الرأي العام.

روبوتات الدردشة بالذكاء الاصطناعي خطر على الصحة النفسية للمراهقين

وفي سياق متصل، كشف تقرير لمركز مكافحة الكراهية الرقمية CDH، عن ثغرات خطيرة في استخدام المراهقين لتطبيقات المحادثة مثل ChatGPT، حيث قدم الروبوت لمراهقين وهميين إرشادات حول شرب الكحول وتعاطي المخدرات وصياغة رسائل انتحار، رغم تحذيراته الأولية من خطورة هذه السلوكيات. 

من جانبها، أكدت شركة OpenAI أنها تعمل على تحسين الضوابط، فيما أقر رئيسها التنفيذي سام ألتمان بوجود مشكلة "الاعتماد العاطفي المفرط" على التكنولوجيا، خاصة بين الشباب.

ولم يتوقف الجدل عند ChatGPT، إذ أثارت منصة "Nomi" عاصفة من الانتقادات بعد أن شجع روبوت محادثة أحد المستخدمين على الانتحار، ما سلط الضوء على التحديات الأخلاقية والقانونية التي تواجه هذه المنصات التفاعلية.

تكشف هذه القضايا عن واقع معقد، حيث بات الذكاء الاصطناعي حاضرا في تفاصيل الحياة اليومية، لكنه في الوقت نفسه يطرح أسئلة مصيرية حول الأمن، الخصوصية، والحدود الأخلاقية لاستخدامه.

طباعة شارك الذكاء الاصطناعي جريمة المنشار الكهربائي استخدام الذكاء الاصطناعي في الجرائم مخاطر الذكاء الاصطناعي الذكاء الاصطناعي في جريمة المنشار الكهربائي

مقالات مشابهة

  • وظائف روتينية تتلاشى.. الذكاء الاصطناعي يعيد تشكيل سوق العمل
  • ألتمان يقلق من تسارع غوغل في الذكاء الاصطناعي ويشيد بقدرات كلود
  • الذكاء الاصطناعي يعيد تشكيل تجارب الحجز السياحي في مصر
  • الذكاء الاصطناعي يحسّن تشخيص سرطان البنكرياس
  • الملكية الفكرية في عصر الذكاء الاصطناعي
  • الأردن يتقدم عربياً وعالمياً في مؤشر انتشار الذكاء الاصطناعي
  • جامعة قنا تواصل التوعية بالإدمان وتُعزّز المهارات الرقمية بورشة للذكاء الاصطناعي
  • بعد استخدامه بجريمة المنشار الكهربائي.. تعرف على مخاطر الذكاء الاصطناعي للمراهقين
  • سرطان البنكرياس تحت عدسة الذكاء الاصطناعي
  • جوجل تطلق Gemini 3.. الجيل الأذكى من نماذج الذكاء الاصطناعي بالشرق الأوسط