أمازون تحذر موظفيها من استخدام أدوات الذكاء الاصطناعي
تاريخ النشر: 26th, February 2024 GMT
كشفت تقارير أن شركة أمازون حذرت موظفيها من استخدام أدوات الذكاء الاصطناعي المُطورة من أطراف خارجية.
بحسب مذكرات داخلية اطلع عليها موقع “ بيزنس إنسايدر” فإن الشركة حذرت الموظفين في رسالة بريد إلكتروني من استخدام أدوات الذكاء الاصطناعي في الأعمال السرية الخاصة بـ أمازون.
شددت أمازون في الرسالة على عدم مشاركة بيانات الشركة أو العملاء أو الموظفين السرية عند استخدام أدوات الذكاء الاصطناعي التابعة لجهات خارجية.
تحذر سياسة استخدام وتفاعل الذكاء الاصطناعي الداخلي التابعة لجهة خارجية في أمازون، والتي اطلع عليها “ بيزنس إنسايدر”، من أن الشركات التي تقدم خدمات الذكاء الاصطناعي التوليدي قد تحصل على معلومات لأي شيء يدخله الموظفون ويقومون بالبحث عنه، مثل ChatGPT من OpenAI.
"وهذا يعني أن أي مخرجات مثل البريد الإلكتروني، والأسئلة، وصفحات الويكي الداخلية، والتعليمات البرمجية، والمعلومات السرية، والوثائق، والمواد الأولية والإستراتيجية، يمكن استخراجها ومراجعتها واستخدامها وتوزيعها من قبل مالكي هذه الأدوات.
وفقًا للموقع فإن أمازون ليست الشركة الكبيرة الأولى التي تفرض قيودًا على استخدام أدوات الذكاء الاصطناعي التوليدية من قبل موظفيها، حيث قامت شركات مثل سامسونج وأبل بهذا الأمر.
قال المتحدث باسم أمازون، آدم مونتجمري، إن الشركة تعمل على تطوير الذكاء الاصطناعي التوليدي ونماذج التعلم الآلي الكبيرة لفترة طويلة، ويستخدم الموظفون نماذج الذكاء الاصطناعي الخاصة بها كل يوم.
أضاف "لدينا ضمانات معمول بها لاستخدام الموظفين لهذه التقنيات، بما في ذلك إرشادات حول الوصول إلى خدمات الذكاء الاصطناعي التوليدية التابعة لجهات خارجية وحماية المعلومات السرية".
المصدر: صدى البلد
كلمات دلالية: أمازون أدوات الذكاء الاصطناعي الذكاء الاصطناعي التوليدي موظفي أمازون استخدام أدوات الذکاء الاصطناعی
إقرأ أيضاً:
خمس حقائق قد لا تعرفها عن طريقة عمل روبوتات الذكاء الاصطناعي مثل ChatGPT
مع تزايد الاعتماد على روبوتات الدردشة المدعومة بـ الذكاء الاصطناعي في حياتنا اليومية، يتساءل كثيرون كيف تعمل هذه الأدوات بالضبط؟ وهل نستخدمها بطريقة صحيحة؟ في هذا التقرير، نرصد أبرز خمس حقائق مهمة لفهم كيفية عمل روبوتات الذكاء الاصطناعي مثل ChatGPT و Google Gemini، وكيف نتعامل معها بوعي وفعالية.
تُدرَّب بواسطة تدخل بشري مباشرتمر روبوتات الدردشة بمراحل متعددة من التدريب، تبدأ بمرحلة تُعرف بـ"ما قبل التدريب" (Pre-training)، حيث يتم تعليم النموذج توقع الكلمة التالية داخل كميات ضخمة من النصوص، هذا التدريب يمنحه فهماً عاماً للغة والمعلومات والمنطق.
لكن هذا التدريب وحده لا يكفي لضمان الأمان والموثوقية. إذ يتدخل بعدها "مُقيِّمون بشريون" لتوجيه النموذج نحو إجابات آمنة ومفيدة، فيما يُعرف بمرحلة "الضبط الأخلاقي" أو "المحاذاة" (Alignment).
في هذه المرحلة، يتم تصنيف الإجابات واختيار الأكثر حيادية وملاءمة، وهو ما يمنع النموذج من تقديم معلومات خطيرة أو مضللة.
ورغم أن شركة OpenAI لم تكشف عدد الأشخاص الذين شاركوا في تدريب ChatGPT أو عدد ساعات التدريب، فإن تدخل البشر يعد ضرورياً لمنح النموذج "بوصلة أخلاقية" تقلل من مخاطره المحتملة.
لا يتعامل مع الكلمات... بل مع "الرموز"على عكس الإنسان الذي يفكر بالكلمات، يتعامل روبوت الذكاء الاصطناعي مع وحدات أصغر تُسمى "الرموز" أو Tokens.
وقد تكون هذه رموزاً كاملة، أو أجزاء من كلمات، أو حتى تسلسلات عشوائية من الحروف.
على سبيل المثال، الجملة "The price is $9.99." تُجزأ إلى رموز مثل: "The", "price", "is", "$", "9", ".", "99". أما "ChatGPT is marvellous"، فقد يتم تحليلها بطريقة أقل منطقية مثل: "chat", "G", "PT", "is", "mar", "vellous".
تُظهر هذه العملية مدى تعقيد فهم اللغة عند الذكاء الاصطناعي، بما له من نقاط قوة وحدود.
معلوماته قديمة ويصعب تحديثهاتُعدُّ روبوتات الذكاء الاصطناعي أدوات "ثابتة المعرفة"، أي أنها لا تقوم بتحديث نفسها تلقائيًا.
وكل إصدار من ChatGPT مثلاً، يتوقف عند "تاريخ معرفة" معين. الإصدار الحالي مثلاً يمتلك معرفة حتى يونيو 2024 فقط.
عند سؤاله عن أخبار حديثة أو أسماء رؤساء حاليين، يحتاج إلى استخدام محرك بحث مثل Bing لقراءة النتائج وتقديم إجابة.
وتُعد عملية تحديث النموذج مكلفة علمياً ومالياً، ولا تزال الأبحاث مستمرة لتطوير آلية تحديث أكثر كفاءة.
قابلة للهذيان... بثقةإحدى أكبر مشكلات روبوتات الدردشة هي أنها قد "تهلوس" — أي تقدم معلومات غير صحيحة أو مختلقة ولكن بثقة كاملة. وذلك لأنها تركز على إنتاج نص مترابط أكثر من التركيز على دقته.
حتى مع وجود أدوات مساعدة مثل التحقق من المصادر أو دمج محركات البحث، لا يمكن منع الهلوسة بالكامل. لذا يُنصح باستخدام روبوتات الدردشة كنقطة انطلاق، وليس كمرجع نهائي للمعلومات.
تعتمد على الآلات الحاسبة لحل المعادلاتفي مهام الرياضيات والاستنتاجات المنطقية المعقدة، تعتمد روبوتات الذكاء الاصطناعي على خاصية تُعرف بـ"سلسلة التفكير" (Chain of Thought). هذه الطريقة تُمكّن النموذج من حل المسألة خطوة بخطوة بدلاً من تقديم الإجابة مباشرة.
ولتفادي الأخطاء الحسابية، تستعين هذه النماذج بآلة حاسبة داخلية قادرة على تنفيذ العمليات الرياضية الدقيقة. هذا المزج بين المنطق الداخلي والأدوات المساعدة يحسّن من كفاءة الحلول.
خلاصةتعكس هذه الحقائق أن روبوتات الذكاء الاصطناعي مثل ChatGPT ليست مجرد أدوات للمحادثة، بل كيانات معقدة تعتمد على قدر هائل من البيانات والتدريب البشري.
لكنها تظل محدودة بالزمان، قابلة للخطأ، وتفتقر للفهم الحقيقي للعالم. التعامل معها بذكاء يبدأ بفهم آلية عملها وحدود قدراتها، وهذا ما يميز المستخدم الواعي عن غيره.