كشف الرئيس التنفيذي لشركة "مايكروسوفت" ساتيا ناديلا عن خمس نصائح أساسية يرى أنها تُمكّن المدراء من استخدام الذكاء الاصطناعي بنجاح، موضحا كيف أصبح "شات جي بي تي" عبر خدمة "Microsoft 365 Copilot" بمثابة مساعد شخصي ومستشار استراتيجي له في إدارة أعماله اليومية، حيث استعرض ناديلا الطريقة التي يعتمدها في تسيير مهامه القيادية باستخدام أدوات الذكاء الاصطناعي.



التحضير للاجتماعات المهمة
عندما يستعد لاجتماع مع مسؤول تنفيذي كبير أو شريك استراتيجي، يسأل ناديلا مساعد الطيار: "بناء على تعاملاتي السابقة مع [اسم الشخص]، أعطني خمسة أمور يُحتمل أن تكون على رأس أولوياته في اجتماعنا". فيحصل على قائمة مركزة تُمكّنه من دخول الاجتماع مُجهزا بالنقاط الأكثر أهمية.

ملخص واضح للموقف
لتجنب الغوص في كم هائل من رسائل البريد الإلكتروني والمحادثات واللقاءات الخاصة بالمشاريع، يطلب ناديلا من المساعد: "اكتب تحديثا للمشروع بناء على الرسائل والاجتماعات: مؤشرات الأداء مقابل الأهداف، النجاحات والإخفاقات، المخاطر، تحركات المنافسين، والأسئلة الصعبة المحتملة". فيحصل خلال لحظات على تقرير إدارة موجز يلخص كل ما يحتاج إليه.


التحقق من الواقع مقابل الجداول الزمنية
قبل إطلاق منتج جديد، يوجه ناديلا سؤالا مباشرا: "هل نحن على الطريق الصحيح لإطلاق المنتج في نوفمبر؟ تحقق من تقدم الهندسة، ونتائج التجارب، والمخاطر، وأعطني احتمالا لما إذا كنا نسير وفق الجدول الزمني". فيتلقى تقييما احتماليا دقيقا بدلا من إجابات عامة.

مراجعة النشاط الشهري
لمعرفة كيفية استغلال وقته، يطلب ناديلا من المساعد: "راجع تقويمي ورسائل البريد الإلكتروني للشهر الماضي، ورتبها في خمس إلى سبع فئات من المشاريع، مع ذكر نسبة الوقت المستغرق ووصف موجز لها". فيحصل على "تدقيق زمني" يوضح بجلاء أولويات اهتماماته الشهرية.

التحضير لاجتماعات الفريق
ولتجنب فقدان سياق الاجتماعات المتكررة، يطلب ناديلا: "راجع ملخص البريد الإلكتروني، وجهزني للاجتماع التالي في السلسلة، بناء على المناقشات السابقة مع المدير والفريق". وبذلك يبني الاجتماع الجديد على ما تقرر مسبقا دون إعادة البدء من الصفر.

وأكد ناديلا أن الذكاء الاصطناعي لا يحل محل البشر، لكنه يعزز قدراتهم على التركيز في الأهم، مشيرا إلى أن خمس طلبات موجزة من المستشار الرقمي توفر له وضوحا في عالم معقد ومزدحم، وتساعده على إدارة واحدة من أنجح شركات التكنولوجيا في العالم.

المصدر: عربي21

كلمات دلالية: سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي سياسة اقتصاد رياضة مقالات صحافة أفكار عالم الفن تكنولوجيا صحة تفاعلي تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا مايكروسوفت الذكاء الاصطناعي جي بي تي علوم مايكروسوفت تقنية الذكاء الاصطناعي جي بي تي المزيد في تكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا علوم وتكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة سياسة تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا تكنولوجيا سياسة اقتصاد رياضة صحافة قضايا وآراء أفكار عالم الفن تكنولوجيا صحة الذکاء الاصطناعی

إقرأ أيضاً:

هل يشجع الذكاء الاصطناعي البشر على الغش؟

أظهرت دراسة جديدة أن الناس يصبحون أكثر ميلا للغش عندما يوكلون المهام إلى أنظمة الذكاء الاصطناعي، خاصة إذا تمكنوا من توجيهها بطريقة تُشجع على السلوك غير الأخلاقي دون أن يطلبوا ذلك صراحة.

وقالت الباحثة في مجال العلوم السلوكية زوي رهوان إن "مستوى الغش يمكن أن يكون هائلا". وأوضحت -في مقال نشره موقع "ساينتفيك أميركان" المتخصص في الأبحاث العلمية- أن مجرد تفويض الذكاء الاصطناعي مهمة ما يجعل المستخدم يشعر بمسؤولية أخلاقية أقل عن النتائج غير النزيهة.

اقرأ أيضا list of 2 itemslist 1 of 2اعتقال 21 تركيًّا بتهمة الاحتيال على الدولة في مصفاة للذهبlist 2 of 2لندن عاصمة السرقة الأوروبية.. هواتف وسيارات فاخرة تهرّب إلى الصين وأفريقياend of list

وشارك في الدراسة -التي نشرت مجلة "نيتشر" نتائجها- آلاف الأشخاص ضمن 13 تجربة استخدم فيها الباحثون نماذج مختلفة، من بينها 4 أنظمة لغوية تجارية كبرى مثل "شات جي بي تي 4″ (GPT-4o) و"كلاود" (Claude).

وتضمنت بعض التجارب لعبة لرمي النرد يربح فيها المشاركون بناء على الأرقام التي يعلنونها، مما يتيح فرصة للغش، بينما استخدمت تجارب أخرى لعبة لتقدير ضرائب الدخل، حيث يمكن للمشاركين التلاعب بالأرقام لتحقيق أرباح أكبر.

وعندما طُلب من المشاركين الإبلاغ عن نتائج النرد بأنفسهم، أظهر نحو 5% فقط سلوكا غير صادق، لكن النسبة قفزت إلى 88% عندما فوّضوا المهمة إلى خوارزمية ووجهوها نحو تحقيق الربح بدلا من الصدق.

وأصدر بعضهم أوامر مباشرة بالغش مثل "الضرائب سرقة، أبلغ عن صفر دخل"، بينما اكتفى آخرون بتلميحات مثل "افعل ما تراه مناسبا، لكن لن أمانع إذا ربحت أكثر قليلا".

صورة مولدة بالذكاء الاصطناعي عن الغشحماس كبير

ولاحظ الباحثون أن الذكاء الاصطناعي يميل إلى تنفيذ الأوامر غير الأخلاقية بحماس أكبر من البشر. ففي التجارب التي طُلب فيها من الطرفين الغش بشكل جزئي أو كامل، كانت النماذج الآلية أكثر امتثالا للغش، بينما تردد المشاركون البشر.

اختبر الفريق أيضا وسائل لتقييد هذا السلوك، فوجد أن الحواجز الافتراضية المدمجة في النماذج لم تكن فعالة في منع الغش، وأن أكثر الوسائل نجاحا كانت إعطاء تعليمات محددة تمنع الكذب صراحة مثل "لا يُسمح لك بالإبلاغ الخاطئ تحت أي ظرف".

إعلان

وأشارت الدراسة إلى أن محاولات تقييد الغش عبر "الحواجز الأخلاقية" المدمجة في النماذج أو باستخدام بيانات الشركات كانت محدودة الفاعلية.

وكانت الإستراتيجية الأكثر نجاحا هي إعطاء تعليمات واضحة وصارمة تمنع الغش، إلا أن تعميم هذا الحل في الواقع العملي ليس قابلا للتطبيق بسهولة.

وتخلص الدراسة إلى أن العلاقة بين الإنسان والذكاء الاصطناعي قد تفتح الباب أمام أشكال جديدة من السلوك غير الأخلاقي تتطلب حلولا أكثر فعالية.

وترى الباحثة في جامعة ميلانو، أنيه كاجاكايته، أن النتائج تكشف جانبا نفسيا مهما؛ إذ يبدو أن الناس يشعرون بذنب أقل عندما يوجهون الآلة للغش بطريقة غير مباشرة، وكأن الذنب الأخلاقي يتبدد عندما ينفذ "شخص" غير بشري الفعل نيابة عنهم.

مقالات مشابهة

  • كيف يؤثر استخدام الذكاء الاصطناعي على الطلاب؟
  • تحديث macOS يقطع الاتصال بين تطبيق البريد الإلكتروني في ماك وخدمات Outlook
  • كيف استخدمت إٍسرائيل الذكاء الاصطناعي سلاحا في حربها على غزة؟
  • أوبن ايه آي تكشف ملامح جيل جديد من الذكاء الاصطناعي فيDevDay
  • ضخ المال أساسي لتحسين أداء الذكاء الاصطناعي
  • دراسة.. يميل الناس إلى الغش عند استخدام الذكاء الاصطناعي
  • هل يشجع الذكاء الاصطناعي البشر على الغش؟
  • تحولات في سوق الذكاء الاصطناعي: سهم إنفيديا يتأرجح بعد صفقة AMD مع OpenAI
  • محمد عواد يطلب حسم مصيره مع الزمالك بعد خروجه من حسابات فيريرا
  • " الأسهم الأمريكية " تفتح على ارتفاع بدعم الذكاء الاصطناعي