مارك زوكربيرج يميل إلى الذكاء الاصطناعي المغلق ويستعد لإطلاق أفوكادو
تاريخ النشر: 13th, December 2025 GMT
بعد عامين من الظهور كأكبر داعم عالمي لنهج الذكاء الاصطناعي مفتوح المصدر، يبدو أن ميتا تُعيد رسم استراتيجيتها بالكامل. فمارك زوكربيرج، الذي كان يفاخر دائمًا بتمسكه بالشفافية والانفتاح في تطوير الذكاء الاصطناعي، بدأ مؤخرًا يلمّح إلى مسار جديد.. مسار مغلق، أكثر تحفظًا، وربما أكثر تنافسية. واليوم تتكشّف أبرز ملامح هذا التغيير عبر مشروع جديد يُعرف داخل الشركة باسم "أفوكادو"، والذي يُتوقع أن يُحدث تحولًا جذريًا في توجهات ميتا خلال الأعوام المقبلة.
وفقًا لتقارير صادرة عن CNBC وبلومبيرغ، تعمل ميتا حاليًا على تطوير نموذج ذكاء اصطناعي جديد، قد يكون أول نموذج احتكاري للشركة منذ سنوات. ويوضح التقرير أن النموذج يتم تطويره داخل وحدة صغيرة تُدعى TBD، وهي جزء من فريق الذكاء الاصطناعي الفائق الذي يقوده ألكسندر وانغ، المسؤول الجديد الذي يفضل النماذج المغلقة ويضغط باتجاه الابتعاد عن سياسة الانفتاح السابقة.
ومن المقرر – بحسب المصادر – إطلاق "أفوكادو" في عام 2026، ليكون أول اختبار حقيقي لتحوّل ميتا نحو استراتيجية ذكاء اصطناعي أكثر صرامة وتحفظًا، خصوصًا بعد التعثر الذي واجهه مشروع Llama 4.
فوضى لاما 4.. السبب وراء التحول؟شهدت نماذج Llama 4 سلسلة من الانتكاسات خلال الأشهر الماضية، أدت إلى تأخير طرح النموذج “العملاق” لأكثر من مرة. وذكرت صحيفة "نيويورك تايمز" أن بعض التنفيذيين، بمن فيهم وانغ، ناقشوا داخل الشركة إمكانية التخلي عن المشروع تمامًا بعد خيبة أمل من أداء النماذج التجريبية.
كما كشفت تقارير أخرى أن مطوري ميتا أنفسهم لم يكونوا راضين عن مخرجات لاما 4، الأمر الذي دفع إدارة الشركة للبحث عن مسار جديد بعيدًا عن الضجيج المرتبط بالمصادر المفتوحة، التي أصبحت مكلفة ومتعبة من الناحية الفنية والبحثية.
هذا التحول يُعتبر صادمًا لكثيرين، خاصة أن زوكربيرج كان قد كتب العام الماضي مذكرة مطوّلة بعنوان: "الذكاء الاصطناعي مفتوح المصدر هو الطريق الأمثل"، دافع فيها بشدة عن حرية التطوير والمشاركة. لكن يبدو أن سباق النماذج العملاقة أمام شركات مثل OpenAI وجوجل وأمازون بات يُشكّل ضغطًا حقيقيًا على ميتا.
فالشركة – كما تشير التقارير – تستعد لإنفاق 600 مليار دولار خلال السنوات القادمة لتمويل طموحاتها في مجال الذكاء الاصطناعي. وهو استثمار ضخم يشير إلى رغبة زوكربيرج في ألا تتأخر ميتا عن منافسيها، حتى لو اضطرت للتراجع عن فلسفتها الإعلامية السابقة.
التحول نحو “أفوكادو” لم يأتِ وحده. بل رافقته تغييرات داخلية جذرية:
تسريح مئات الموظفين من وحدة FAIR التاريخية.
إعادة هيكلة الفرق البحثية لصالح فريق الذكاء الاصطناعي الفائق.
مغادرة يان ليكان، كبير علماء الذكاء الاصطناعي في ميتا وأحد أشهر الأصوات المدافعة عن المصادر المفتوحة عالميًا.
ورحيل ليكان تحديدًا يحمل رسالة واضحة:
أن ميتا لم تعد الشركة التي تدافع عن الانفتاح المطلق في تطوير الذكاء الاصطناعي، وأن شيئًا ما يتغير بعمق داخل مختبراتها.
حتى الآن، لا توجد إجابة واضحة حول ما إذا كان مشروع "أفوكادو" سيُنهي رسميًا سلسلة لاما، أو سيعمل بالتوازي معها كنموذج احتكاري يُستخدم في منتجات معينة. لكن تصريحات زوكربيرج الأخيرة تُظهر أن الشركة قد تتبنى مزيجًا من النهجين: الانفتاح عندما يخدم مصالحها، والإغلاق عندما يتعلق الأمر بأبحاث متقدمة أو بتقنيات قد تغير سوق الذكاء الاصطناعي.
خطوات ميتا الأخيرة تكشف عن مرحلة جديدة أكثر توترًا في سباق الذكاء الاصطناعي. فالشركة التي رفعت شعار الانفتاح لسنوات بدأت الآن تراجع مواقفها تحت ضغط السوق، وفوضى التطوير، وشدة المنافسة.
المصدر: بوابة الوفد
كلمات دلالية: الذکاء الاصطناعی
إقرأ أيضاً:
الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.
يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".
مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".
يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".
بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.
وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات
كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.
أخبار ذات صلةيقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.
يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".
كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.
ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".
يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".
ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.
ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)