أصبح استخدام الذكاء الاصطناعي في العمل أمرا شائعا، وإذا لم تفعل ذلك، فسوف تتخلف عن زملائك بخطوات، ولكن رغم ذلك، فقد تصبح أدوات الذكاء الاصطناعي مثل "شات جي بي تي" خطرة جدا إذا استُعملت خطأً.

ولهذا من المهم فهم المخاطر الأمنية الخفية التي قد تسببها هذه الأدوات من انتهاك الخصوصية إلى سرقة الملكية الفكرية، وسنذكر أبرز 6 أخطار رئيسية يجب الانتباه لها عند استخدام الذكاء الاصطناعي في العمل.

أخطار الخصوصية

من أكبر الأخطار عند استخدام أدوات الذكاء الاصطناعي في العمل مشاركة معلومات حساسة أو خاصة دون قصد، مثل بيانات العملاء أو مستندات داخلية أو حتى أفكار مهمة تعود لك أو لشركتك.

وقد تفكر في إرسال مسودة اقتراح أو عقد أو فكرة اختراع لأداة ذكاء اصطناعي لتحسينها، لكن بمجرد القيام بذلك تكون قد سلمت تلك المعلومات إلى منصة خارجية، وربما لا تكون لديك سيطرة كاملة على ما يحدث لها بعد ذلك.

وبعض الشركات المزودة لتلك الأدوات توفّر حسابات مخصصة للمؤسسات وتعد بعدم تخزين أو استخدام بياناتك في تدريب نماذجها، لكن هذا يعتمد على إعدادات الأداة وسياسات الخصوصية التي يمكن أن تتغير بمرور الوقت أو تتأثر بقوانين استثنائية.

ومن الجدير بالذكر أن الخطر لا يكمن في أن الذكاء الاصطناعي يسرق بياناتك، بل في أنك قد تعطيه معلومات قيّمة دون أن تدرك العواقب لاحقا، فهو يأخذ بياناتك ويتدرب عليها ثم يعرضها للعامة على شكل مخرجات متى طُلب منه ذلك.

وإذا أسأت استخدام الذكاء الاصطناعي، فإنك قد تنتهك قانون قابلية نقل التأمين الصحي والمساءلة "إتش آي بي إيه إيه" (HIPAA) أو قانون حماية البيانات العامة "جي دي بي آر" (GDPR)، ويجب أن تعلم أن انتهاك هذه القوانين يترتب عليه عقوبات مالية باهظة لشركتك، كما أن إساءة التعامل مع بيانات العملاء أو المرضى قد يكلفك وظيفتك، وربما تكون قد وقعت اتفاقية عدم إفصاح عندما بدأت عملك وإذا أفدت بأن بيانات محمية فهذا يعني أنك انتهكت الاتفاقية.

إعلان

وحتى لا يقع الموظفون في هذه الأخطاء تُقدم شركات الذكاء الاصطناعي مثل "أوبن إيه آي" و"أنثروبيك" خدمات مؤسسية لعديد من الشركات تسمح باستخدام منتجاتها بشكل مخصص مع مراعاة حماية الخصوصية والأمن السيبراني، ولهذا من المفيد استخدام حساب الذكاء الاصطناعي الذي توفره الشركة بدلا من استخدام حساب شخصي.

تعتمد أدوات الذكاء الاصطناعي على كميات هائلة من البيانات مثل المقالات والصور والأبحاث ومحتوى الفيديوهات (شترستوك) المعلومات الخطأ

الذكاء الاصطناعي لا يتحقق من المعلومات التي يقدمها، فهو يتنبأ بالكلمات بناء على الأنماط التي تعلمها، ونماذج اللغة الكبيرة قادرة على كتابة مستندات كاملة أو تلخيصات أو حتى اقتباسات في ثوانٍ، لكنها كثيرا ما تُهلوس –أي تنتج معلومات خطأ مع أنها تبدو قابلة للتصديق– وقد تكون هذه المعلومات على شكل مصادر وهمية أو بيانات غير دقيقة أو قضايا قانونية لا وجود لها.

وحتى في الحسابات البسيطة أو الجداول يمكن أن يرتكب الذكاء الاصطناعي أخطاءً مثل حساب النتائج بشكل غير صحيح أو تطبيق معادلات بطريقة خطأ أو حتى يعطي معلومات خطأ، وإذا نبهته إلى الخطأ قد يعترف ويصحح نفسه مما يثبت أنه لم يكن متأكدا منذ البداية.

ولذلك إذا قمت بنسخ محتوى من الذكاء الاصطناعي ووضعته في عرض تقديمي أو تقرير من دون مراجعة، فأنت تخاطر بنشر معلومات مضللة قد تضر بمصداقيتك ومصداقية شركتك، ولهذا من الضروري أن تراجع مخرجات الذكاء الاصطناعي وتتحقق منها على الدوام.

أخطار التحيّز

تعتمد أدوات الذكاء الاصطناعي على كميات هائلة من البيانات مثل المقالات والصور والأبحاث ومحتوى الفيديوهات، مما يجعلها في بعض الأحيان تعكس تحيزات موجودة في تلك البيانات أو لدى من قام بكتابتها.

ورغم محاولات الشركات الكبرى تعديل نماذجها لكي لا تُخرج أي محتوى مسيء أو متحيّز، فإن هذه الجهود ليست دائما ناجحة. على سبيل المثال، قد يستخدم أحد ما أداة ذكاء اصطناعي لاختيار موظفين جدد، فتنتهي الأداة باستبعاد مرشحين من خلفيات عرقية معينة دون قصد، وهو ما لا يضر فقط بالمرشحين، بل قد يعرض الشركة لقضايا قانونية مكلفة.

والأسوأ أن بعض الحلول التي تُستخدم للحد من التحيّز قد تسبب تحيزا من نوع آخر، مثلا كأن يستخدم المطورون ما يُعرف بمطالبات النظام لتوجيه سلوك الأداة، مثل منعها من استخدام كلمات نابية أو عبارات عنصرية، ولكن هذه الأوامر نفسها قد تزرع تحيزا غير مقصود في ردود الأداة.

وأحد الأمثلة البارزة على ذلك عندما قام أحد مطوري شركة "إكس إيه آي" (xAI) بتعديل أحد هذه الأوامر، مما جعل روبوت الدردشة "غروك" (Grok) يكرر مزاعم غريبة عن إبادة جماعية للبيض في جنوب أفريقيا، إضافة إلى تعليقات "معادية للسامية"، تضمنت مدحا لأدولف هتلر، تسببت في استقالة ليندا ياكارينو الرئيسة التنفيذية لشركة إكس.

الانحراف في المحادثة وتأثيره على المدى الطويل

ليس كل تأثير في الذكاء الاصطناعي يأتي من الخارج، أحيانا يكون بسبب تفاعلك الشخصي معه، فكلما استخدمت أداة الذكاء الاصطناعي أكثر، زاد تأثر ردودها بسياق محادثاتك السابقة خاصة على المنصات التي تعتمد على ميزة الذاكرة أو تتبع الجلسات المستمرة.

على سبيل المثال إذا كنت تشغل وظيفة مدير موارد بشرية في شركة ما، وسبق وأن أخبرت "شات جي بي تي" أنك مررت بتجربة سيئة مع نوع معين من الموظفين، ثم سألته لاحقا "هل تنصحني بتوظيف هذا الشخص؟"، في هذه الحالة يمكن أن يتأثر رد الذكاء الاصطناعي بتجربتك السيئة السابقة سواء بقصد أو دون قصد، إذ إن الروبوت قد يميل إلى رأي سلبي في أي موظف جديد، لأنك أبديت رأيا سلبيا سابقا عن موظف مشابه دون أن تنتبه لهذا التحيز.

وهذا ما يُطلق عليه اسم "انحراف المحادثة"، حيث يبدأ الذكاء الاصطناعي في التفاعل معك، وكأنه يتبنى وجهة نظرك السابقة بدلا من أن يكون محايدا، فإذا تعاملت مع "شات جي بي تي" كمستشار لا كأداة، قد تحصل على إرشادات خطأ بناءً على توجيهات سابقة مشوهة أو عاطفية.

ليس كل تأثير في الذكاء الاصطناعي يأتي من الخارج، أحيانا يكون بسبب تفاعلك الشخصي معه (وكالة الأناضول) أخطاء المستخدمين

أطلقت شركة ميتا مؤخرا تطبيقا للهاتف المحمول خاصا بأداة الذكاء الاصطناعي "لاما" (Llama)، وتضمن التطبيق موجزا اجتماعيا يعرض الأسئلة والنصوص والصور التي ينشرها المستخدمون، ولكن كثيرا من المستخدمين لم يكونوا على علم بأن محادثاتهم يمكن أن تُعرض للجميع، مما أدى إلى تسرب معلومات محرجة أو خاصة.

إعلان

ورغم أن هذه الحالة بسيطة، فإنها توضح كيف يمكن لخطأ بسيط من المستخدم أن يؤدي إلى مواقف غير مرغوبة، وفي بعض الأحيان قد يسبب ضررا حقيقيا للشركات.

تخيل أن فريق العمل لا يدرك أن أداة الذكاء الاصطناعي الخاصة بتسجيل الملاحظات لا تزال تعمل بعد انتهاء الاجتماع الرسمي، فيبدأ بعض الموظفين بالتحدث بحرية في الغرفة، ظنا منهم أن كل شيء قد انتهى بينما تظل الأداة تسجل الحوار، وفي وقت لاحق تُرسل تلك المحادثة غير الرسمية عن طريق الخطأ إلى جميع الحضور في الاجتماع، مما يسبب إحراجا للموظفين وقد يؤدي إلى طردهم.

انتهاك الملكية الفكرية

إذا كنت تستخدم أدوات الذكاء الاصطناعي لإنشاء صور أو شعارات أو مقاطع فيديو أو صوت، فقد تكون الأداة نفسها تدربت على مواد محمية بحقوق الطبع والنشر، وهذا يعني أن ما تنتجه قد يحتوي -دون قصد- على عناصر تنتهك حقوق ملكية فكرية لفنان أو جهة معينة، مما يعرضك أو شركتك لخطر قانوني وربما دعاوى قضائية.

يُذكر أن القوانين المتعلقة بحقوق النشر والذكاء الاصطناعي لا تزال غير واضحة تماما، وهناك قضايا ضخمة لم تُحسم بعد، مثل دعوى ديزني ضد "ميدجورني" (Midjourney)، ودعوى نيويورك تايمز ضد "أوبن إيه آي"، بالإضافة إلى قضايا مرفوعة من مؤلفين ضد شركة "ميتا".

لا تفترض أن كل ما تنتجه أدوات الذكاء الاصطناعي آمن قانونيا للاستخدام، فقبل استخدام أي محتوى مولد بالذكاء الاصطناعي في عمل رسمي أو تجاري، من الأفضل دائما استشارة محامي أو الفريق القانوني في الشركة.

المصدر: الجزيرة

كلمات دلالية: حريات دراسات أدوات الذکاء الاصطناعی الذکاء الاصطناعی فی شات جی بی تی فی العمل دون قصد یمکن أن

إقرأ أيضاً:

هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟

وقع نظري مؤخرًا على مقال نشره كاتب أمريكي يُدعى «رونالد بروسر»، وهو أستاذ إدارة الأعمال بجامعة «سان فرانسيسكو». 

نُشر المقال في مجلة «Current Affairs»، وهي مجلة سياسية ثقافية تصدر من الولايات المتحدة الأمريكية، وذلك في 1 ديسمبر 2025. 

تحدّث الكاتبُ في هذا المقال عن أزمة التعليم في ظل وجود الذكاء الاصطناعي، ويرى أن الجامعات الأمريكية عقدت الكثير من الشراكات مع شركات الذكاء الاصطناعي مثل شركة OpenAI، وأن هذا التوجّه يمثّل تهديدًا للتعليم ومستقبله، ويسهم في تفريغه من مضمونه الرئيس؛ بحيث يتحوّل التعليم إلى ما يشبه مسرحية شكلية فارغة من التفكير وصناعة الفكر والمعرفة الحقيقية. 

يرى «بروسر» أن هناك تحوّلا يدفع الطلبة إلى استعمال الذكاء الاصطناعي بشكل مكثّف وغير منضبط في إنجاز الواجبات والأعمال المنوطة إليهم، وكذلك يدفع كثيرا من الأساتذة إلى الاعتماد المفرط عليه في إعداد المحاضرات وعمليات التقويم والتصحيح، وتدفع الجامعات ـ كما يذكر «بروسر» ـ ملايين الدولارات في إطار هذه الشراكات مع شركات الذكاء الاصطناعي مثل OpenAI؛ لتوفير النُّسخ التوليدية التعليمية وتسخيرها للطلبة والأكاديميين. 

بناء على ذلك، تذهب هذه الملايين إلى هذه النظم التوليدية الذكية وشركاتها التقنية، في حين استقطعت الأموال من موازنات الجامعات؛ فأدى إلى إغلاق برامج أكاديمية في تخصصات مثل الفلسفة والاقتصاد والفيزياء والعلوم السياسية، وكذلك إلى الاستغناء عن عدد من أعضاء هيئة التدريس. 

يكشف الكاتبُ في نهاية المطاف أن الجامعات بدأت تتحول من الاستثمار في التعليم ذاته إلى تسليم النظام التعليمي ومنهجيته وعملية التعلّم إلى منصات الذكاء الاصطناعي، وهو ما يقلّص الاعتماد على الكوادر البشرية وعلى المنهجيات النقدية والتفكيرية. 

كذلك يُظهر الكاتبُ الوجهَ المظلم للذكاء الاصطناعي والاستغلال الذي قامت به شركات الذكاء الاصطناعي بالتعاون مع بعض الجامعات ومؤسسات البحث العلمي، ويرتبط هذا الوجه المظلم بعملية فلترة المحتوى الذي يُضخّ في نماذج الذكاء الاصطناعي التوليدية؛ حيث تُكلَّف فئات من البشر ـ في الغالب من الدول الأفريقية الفقيرة ـ بمراجعة هذا المحتوى وتصنيفه وحذف غير الملائم منه، مقابل أجور زهيدة جدا، وذلك بغية صناعة واجهة «آمنة» لهذه النماذج، وتقتضي هذه العملية في الوقت نفسه استهلاك كميات هائلة من الطاقة والمياه لتشغيل مراكز البيانات التي تقوم عليها هذه الأنظمة. 

كما يكشف وجها آخر للاستغلال الرقمي، ضحاياه الطلبة في بعض الجامعات الأمريكية ـ خصوصا المنتمين إلى الطبقات العاملة ـ عبر استغلالهم لصالح مختبرات شركات وادي السيليكون؛ إذ تُبرَم صفقات بملايين الدولارات بين هذه الشركات وبعض الجامعات، دون استشارة الطلبة أو أساتذتهم، في حين لا يحصل الطلبة إلا على الفتات، ويُعامَلون كأنهم فئران تجارب ضمن منظومة رأسمالية غير عادلة. 

أتفقُ مع كثير من النقاط التي جاء بها «رونالد بروسر» في مقاله الذي استعرضنا بعض حيثياته، وأرى أننا نعيش فعلا أزمة حقيقية تُهدِّد التعليم والجامعات، ونحتاج لفهم هذه الأزمة إلى معادلة بسيطة معنية بهذه التحديات مفادها أننا الآن في مرحلة المقاومة، والتي يمكن اعتبارها مرحلة شديدة الأهمية، لأنها ستُفضي في النهاية إما إلى انتصار التقنية أو انتصار الإنسان. 

مع ذلك، لا أعتقد أن هذه المعركة تحتاج إلى كل هذا القدر من التهويل أو الشحن العاطفي، ولا أن نُسبغ عليها طابعا دراميًا مبالغًا فيه. 

كل ما نحتاجه هو أن نفهم طبيعة العلاقة بيننا وبين التقنية، وألا نسمح لهذه العلاقة أن تتحول إلى معركة سنخسرها بكل تأكيد، نظرا إلى عدة عوامل، من بينها أننا نفقد قدرتنا على التكيّف الواعي مع المنتجات التقنية، ولا نحسن توظيفها لصالحنا العلمي والتعليمي؛ فنحوّلها ـ عن قصد أو بدون قصد ـ إلى خصم ضار غير نافع. 

نعود بالزمن قليلا إلى الوراء ـ تحديدا تسعينيات القرن العشرين ـ 

لنتذكّر المواجهة التي حدثت بين المنظومة التعليمية ـ من جامعات وأساتذة وباحثين ومهتمّين بالمعرفة ـ وبين موجة التهديدات الجديدة التي تزّعمها الإنترنت ومحركاته البحثية، وكان أحد أبرز هذه التهديدات ظهور ما يمكن تسميته بثقافة البحث السريع؛ حيث ابتعد الطالب والباحث عن الطرق التقليدية في البحث مثل استعمال الكتب والقراءة المطوّلة والعميقة، ولجأ إلى الإنترنت والبحث عن المعلومات في غضون ساعات قليلة، والاكتفاء بتلخيص الدراسات والكتب. 

ولّد هذا التحوّل مشكلات أخرى، من بينها تفشّي ظاهرة الانتحال العلمي والسرقات الفكرية، ولكن، لم تستمر هذه المشكلة لفترة طويلة؛ فحُلّت تدريجيا بعد سنوات، وتحديدا مع ظهور أدوات قادرة على كشف حالات الانتحال والسرقة العلمية، وظهور أنظمة تأقلمية ومعايير وقوانين تعليمية وأكاديمية عملت على إعادة تموضع الإنترنت داخل المنظومة التعليمية، وهكذا خرج النظام التعليمي والجامعات من تلك المواجهة رابحًا في بعض أجزائه وخاسرًا في أجزاء أخرى. 

لا أتصور أن مشكلتنا الحالية مع الذكاء الاصطناعي تشبه تماما المشكلة السابقة التي أحدثها ظهور الإنترنت ومحركات البحث؛ فكانت التحديات السابقة -نسبيا- أسهل، وكان من الممكن التعامل معها واحتواؤها في غضون سنوات قصيرة. أما المشكلة الراهنة مع الذكاء الاصطناعي، فتكمن في سرعته التطورية الهائلة التي لا نستطيع حتى أن نتحقق من مداها أو نتنبّأ بوتيرة قدراتها الإبداعية؛ فنجد، مثلا ، أنه في غضون سنتين أو ثلاث فقط انتقل الذكاء الاصطناعي التوليدي مثل«ChatGPT» من مرحلته البدائية إلى مرحلته المتقدمة الحالية، تجاوز فيها في بعض الزوايا قدرات الإنسان العادي في المهارات اللغوية، وأصبح يشكّل تحديًا حقيقيًا كما أشرنا في مقالات سابقة. 

فيما يتعلّق بالتعليم والجامعات، وكما أشار الكاتب في المقال الذي استعرضناه؛ فنحن أمام مشكلة حقيقية تحتاج إلى فهم عميق وإعادة ترتيب لأولوياتنا التعليمية. 

نقترح أولا ألا نتجاوز الحد المسموح والمقبول في استعمال الذكاء الاصطناعي في التعليم؛ فيجب أن تكون هناك حالة توازن واعية في التعامل مع أنظمة الذكاء الاصطناعي التوليدية في الجامعات، وكذلك المدارس. 

وبصفتي أكاديميًا، أرى من الضروري أن نقنن استعمال الذكاء الاصطناعي داخل الجامعات عبر وضع معايير وقوانين واضحة، والسعي في الوقت ذاته إلى تطوير أدوات قادرة على كشف حالات الانتحال والسرقات العلمية المرتبطة باستعمال هذه التقنيات والنماذج الذكية، رغم صعوبة ذلك في المرحلة الحالية، ولكن من المرجّح أن يصبح الأمر أكثر يسرا في المستقبل القريب. 

رغم ذلك، فلا يعني أنه ينبغي أن نمنع استعمال الذكاء الاصطناعي منعًا تامًا؛ فجلّ ما نحتاجه أن نُشرف عليه ونوجّهه ضمن حدود معيّنة؛ لتكون في حدود تعين على صناعة الإبداع البشري؛ فيمكننا أن نوجّه الذكاءَ الاصطناعي في تنمية مهارات الحوار والتفكير والتحليل لدى الطلبة إذا استُعملَ بطريقة تربوية صحيحة. 

ولكن في المقابل يجب أن تُشدَّد القوانين والعقوبات المتصلة بحالات الانتحال والاعتماد الكلّي على النماذج التوليدية سواء في مخرجات العملية التعليمية أو في البحوث العلمية. 

كذلك من الضروري أن نُعيد التوازن إلى دور أعضاء هيئة التدريس في الجامعات؛ فمن غير المعقول أن نترك صناعة المحتوى التعليمي مرهونة بالكامل للذكاء الاصطناعي، في حين يتراجع دور الأكاديمي وإبداعه الذي يمارس التفكير والنقد والإضافة المعرفية من عنده. 

على صعيد آخر، أظهرت دراسات حديثة التأثير السلبي للاستعمال المفرط للذكاء الاصطناعي والاعتماد عليه على الدماغ البشري بشكل فسيولوجي مباشر؛ فيمكن أن يدخله في حالة من الضمور الوظيفي مع الزمن، خصوصا حال تخلّى الإنسان عن ممارسة التفكير لصالح الخوارزمية. 

 د. معمر بن علي التوبي أكاديمي وباحث عُماني 

مقالات مشابهة

  • نيويورك تضع قواعد جديدة للذكاء الاصطناعي في الإعلانات والفنون
  • الاعتماد على الذكاء الاصطناعي في كتابة السيرة الذاتية قد يحرمك من الوظيفة
  • هل يهدد الذكاء الاصطناعي التعليم والجامعات ؟
  • وزير العمل في قمة المرأة 2025: «الذكاء الاصطناعي والتحول الرقمي يعيدان تشكيل خريطة الوظائف»
  • وزير العمل: الذكاء الاصطناعي والتحول الرقمي يعيدان تشكيل خريطة الوظائف بمصر
  • كيف تحمي نفسك من أدوات الذكاء الاصطناعي التي تجمع بياناتك الشخصية (فيديو)
  • بقيادة ترمب.. تشكيل تحالف دولي لمواجهة الهيمنة الصينية في الذكاء الاصطناعي
  • الصين تعزز استخدام رقائق الذكاء الاصطناعي المحلية
  • نائب «السعودية لتقويم الأسنان»: القطاع الصحي في المملكة يتصدر في استخدام الذكاء الاصطناعي
  • إنوفيرا تطلق برامج تدريبية متقدمة في الذكاء الاصطناعي والأمن السيبراني