في خطوة منتظرة من قبل مجتمع الذكاء الاصطناعي العالمي، أعلنت TechCrunch أن جاريد كابلان، الشريك المؤسس وكبير العلماء في شركة Anthropic، سيشارك في الجلسة الرئيسية لمؤتمر TechCrunch Sessions: AI المقرر عقده في 5 يونيو بقاعة Zellerbach الشهيرة في جامعة كاليفورنيا، بيركلي.

ويأتي الإعلان وسط زخم كبير حول تطورات Anthropic المتسارعة في مجال الذكاء الاصطناعي، خاصة بعد إطلاق النموذج الذكي Claude 3.

7 Sonnet والذي وصفته الشركة بأنه "أذكى نموذج لها حتى الآن"، بفضل تقنية "الاستدلال الهجين" التي تجمع بين الردود السريعة على الأسئلة البسيطة والمعالجة العميقة للأسئلة المعقدة.

Fitbit تطلق 3 أدوات تجريبية جديدة تعتمد على الذكاء الاصطناعي لتعزيز المتابعة الصحيةهونر تثير الحماس بميزة تحويل الصور إلى فيديو عبر الذكاء الاصطناعيجوجل تختبر منتدى نقاش داخل تطبيق البحث لمنافسة Reddit ومنصات الذكاء الاصطناعيأسرة تستعين بالذكاء الاصطناعي لعرض رسالة من متوفٍ أمام المحكمةقرر بناء حاسوب مكتبي مخصص لتجربة تطبيقات الذكاء الاصطناعي.. فماذا حدث؟استحواذ آبل في العام الماضي قد يمهد لإعلان ضخم حول الذكاء الاصطناعي بمؤتمر WWDCخطة آبل الكبرى للذكاء الاصطناعي.. وسيري قد لا ترى النور حتى إطلاق آيفون 19ذكاء اصطناعي وأندرويد 16.. كل ما نتوقعه من مؤتمر جوجل Google I/Oجوجل تعزز حماية متصفح كروم بنموذج الذكاء الاصطناعي Gemini Nanoاستكشاف الاستدلال الهجين ومخاطر الذكاء الاصطناعي

في كلمته المنتظرة، سيأخذ كابلان الحضور خلف الكواليس للكشف عن آلية عمل نماذج الاستدلال الهجين التي تطورها Anthropic، والتي تمثل الجيل الجديد من الذكاء الاصطناعي التفاعلي.

 كما سيستعرض الإطار الحوكمي الخاص بالشركة لإدارة مخاطر الذكاء الاصطناعي، خاصة بعد تعيينه في أكتوبر الماضي كـمسؤول عن التوسع المسؤول (Responsible Scaling Officer).

من فيزياء الكم إلى تصميم الذكاء الاصطناعي

قبل مشاركته في تأسيس Anthropic، قضى كابلان نحو 15 عامًا كباحث في الفيزياء النظرية في جامعة جونز هوبكنز، متخصصًا في مجالات مثل الجاذبية الكمية ونظرية الحقول وعلم الكونيات. 

وهو أحد العقول البارزة وراء تطوير قوانين التوسع (Scaling Laws) التي غيّرت فهم القطاع لطريقة تطور النماذج المتقدمة.

وقد سبق له أن ساهم في تطوير نماذج شهيرة مثل GPT-3 وCodex خلال عمله مع OpenAI، قبل أن يساهم في ولادة سلسلة مساعدات Claude داخل Anthropic.

توسع متسارع واستثمارات ضخمة

شهدت الشركة في الأشهر الأخيرة سلسلة من التحديثات الجوهرية، منها إطلاق تكامل Claude مع Google Workspace، وتحويله إلى "متعاون افتراضي حقيقي" للشركات، إلى جانب تطوير ميزة بحث مستقلة تعتمد على الذكاء الاصطناعي.

وتشير التقارير إلى أن Anthropic تعمل حاليًا على تطوير مساعد صوتي لمنافسة عروض مشابهة من شركات أخرى مثل OpenAI وGoogle.

هذا النمو المتسارع لم يمر مرور الكرام على المستثمرين، ففي مارس 2025، أعلنت الشركة عن صفقة تمويل جديدة رفعت قيمتها السوقية إلى 61.5 مليار دولار، ارتفاعًا من 16 مليار دولار فقط قبل عام، وفقًا لمصادر TechCrunch.

طباعة شارك ai Claude 37 Sonnet الذكاء الاصطناعي

المصدر: صدى البلد

كلمات دلالية: الذكاء الاصطناعي الذکاء الاصطناعی

إقرأ أيضاً:

الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية

برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.

يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".

مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".

يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".

بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.

وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات

كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.

أخبار ذات صلة "أوبن إيه آي" تطلق نموذج ذكاء اصطناعي جديدا الذكاء الاصطناعي النووي يُحدث نقلة في إدارة قطاع الطاقة

يقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.

يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".

كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.

ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".

يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".

ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.

ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)

مقالات مشابهة

  • تسريب يكشف أن سلسلة Galaxy S26 ستعتمد كليًا على نموذج Gauss للذكاء الاصطناعي
  • مستقبل الفضاء الإذاعي في ظل تطبيقات الذكاء الاصطناعي
  • كوريا الجنوبية تتجه نحو تطبيق إطار تنظيمي للذكاء الاصطناعي
  • نيويورك تضع قواعد جديدة للذكاء الاصطناعي في الإعلانات والفنون
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • أين تستثمر في الذكاء الاصطناعي خلال 2026؟
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • أوبن أيه آي تطلق نموذج الذكاء الاصطناعي GPT-5.2 بعد تحسينات واسعة
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية