العُمانية :

الراصد لما يشهده العالم اليوم من تحولات جذرية في البنية التقنية المعاصرة يجد أن طفرة الذكاء الاصطناعي الحواري باتت تحتل موقعًا محوريًّا في منظومات العمل الرقمية على مستويات كثيرة، خاصة المجتمعية منها، ويتجسد ذلك في الأدوات المساعدة الذكية مرورًا بتطبيقات تحليل البيانات والتواصل البشري المُعزز.

وفي هذا السياق، يشير الخليل بن أحمد العبدلي، مدرب أدوات الذكاء الاصطناعي، إلى قراءة تحليلية لواقع الذكاء الاصطناعي الحواري من حيث مكانته في البنية التقنية الحالية، وأبرز استخداماته الفعلية، وحدوده التقنية القائمة، ويستعرض في سياق حديثه التحديات المرتبطة بثقة المستخدمين في المحتوى الذي يُنتجه الذكاء الاصطناعي وقضايا الخصوصية.

في بداية حديثه، يقول الخليل العبدلي: الذكاء الاصطناعي الحواري، على وجه الخصوص اليوم، يُمثّل أحد أبرز تطبيقات الذكاء الاصطناعي التوليدي، كما يُعد نقطة تحول واضحة في العلاقة بين الإنسان والآلة. ونحن لا نتحدث فقط عن برامج قادرة على الرد، بل عن نماذج لغوية ضخمة قادرة على توليد نصوص ومحتوى بناءً على السياق، والتفاعل مع المستخدم بلغة طبيعية تُقارب الأسلوب البشري.

وأضاف أنه من خلال تجربتي في تطوير المحتوى باستخدام هذه الأدوات، يمكن القول إننا أمام منصة معرفية تشاركية ضخمة تتجاوز الاستخدام التقليدي للتقنية، فبدلًا من الاكتفاء بمحركات بحث تُعيد لنا نتائج، أصبحنا نتفاعل مع نموذج يتعامل مع السؤال، ومن ثم يقترح إجابات وتفسيرات، ويُعيد صياغة الفكرة بطرق متعددة.

ومن خلال سؤال معرفي طرحه العبدلي ويتجسد في: "هل هو ثورة معرفية؟"، أجاب: أعتقد بأن الوصف دقيق إذا تحدثنا عن التأثير السلوكي والمعرفي، لكن يجب أن نكون حذرين في الوصف، لأنه في النهاية يعتمد على بيانات موجودة، ولا يمتلك فهمًا أو وعيًا حقيقيًّا، لذا أُفضل وصفه بأنه "تطور جوهري في أدوات المعرفة". أما التحول من البحث النصي إلى الحوار الذكي، فهو ليس فقط نقلة تقنية، بل نقلة في منهج الوصول إلى المعلومة. نحن لم نعد نبحث فقط، بل نتحاور ونفكّر بصوت عالٍ مع الآلة، وهذه نقلة تستحق التوقف عندها.

وفيما يتعلق بالاستخدامات الفعلية لهذه المنصات وحدودها التقنية، وضح أن الاستخدامات تتنوع بشكل كبير، وتعتمد بشكل أساسي على طبيعة المستخدم؛ فالفرد قد يستخدم المنصة في صياغة رسائل، وتلخيص مقالات، أو حتى تطوير أفكاره الخاصة. أما المؤسسات، فهي تستفيد منها في إدارة المعرفة وأتمتة بعض المهام مع دعم فرق العمل أو حتى إعداد المحتوى التدريبي والتسويقي.

ويشير إلى أنه من واقع ما أراه أثناء التدريب على سبيل المثال، فإن الأكاديميين يستخدمون هذه النماذج لتحسين جودة الإنتاج العلمي، ويستفيد منها المبرمجون من أجل تصحيح الأكواد وتوليد أجزاء منها بسرعة، بينما تلجأ الجهات الإدارية إليها لتسريع إعداد التقارير أو الردود الرسمية. لكن هذه المنصات، رغم كفاءتها العالية، لها حدود تقنية ومعرفية؛ فهي لا تملك فهمًا عميقًا للسياق الثقافي، وقد تخلط في أحيان مختلفة بين مفاهيم متشابهة في اللغة لكنها مختلفة في الاستخدام، كما أن دقة المعلومة تعتمد على طريقة الصياغة ومدى وضوح الهدف، وهناك أيضًا تحدٍّ مرتبط بقدرتها على فهم السياقات القانونية أو الأخلاقية الدقيقة، ولهذا، لا يمكن الاعتماد عليها كبديل نهائي، وإنما كمساعد ذكي يتطلب مراجعة بشرية واعية.

ويتطرق العبدلي إلى الثقة في المحتوى وقضية الخصوصية في هذا الجانب، ويشير بقوله: "من وجهة نظر علمية، النماذج اللغوية التوليدية، مثل ChatGPT أو Gemini، تعتمد على بنية تنبؤية تعتمد على الإحصاء وليس على الفهم المنطقي أو الإدراك البشري فتقوم بتحليل المدخلات وتوليد المخرجات بناءً على احتمالية الكلمات المناسبة، وليس بناءً على "نية" أو "وعي" حقيقي، لذلك، مسألة الثقة يجب أن تُبنى على فهم لطبيعة هذه النماذج، ولا يُنصح بالاعتماد عليها في القرارات المصيرية أو المجالات التي تتطلب دقة عالية، مثل الفتوى أو الطب أو القضاء، إلا بمشاركة بشرية دقيقة.

أما الخصوصية، فهي من أهم النقاط التي أؤكد عليها دائمًا في تدريبي؛ فبعض النماذج تجمع بيانات الاستخدام لتحسين الأداء، وبعضها يُتيح وضع الخصوصية أو التشغيل دون تسجيل، لكن التحدي الحقيقي يكمن في وعي المستخدم ومدى إدراكه لنوع المعلومات التي يُدخلها، وهنا تظهر الحاجة لمهارات "الأمان الرقمي" التي باتت جزءًا من الثقافة العامة في العصر الحالي".

ويتطرق العبدلي إلى الاستخدام الأمثل وهندسة الأوامر الفعّالة في هذا الأمر، مؤكدًا على أن حسن التفاعل مع هذه المنصات لا يتوقف على معرفة التقنية، بل على قدرة المستخدم في صياغة السؤال بشكل دقيق وواضح.

ووضح أن ما يسمى اليوم بـ "هندسة الأوامر" هو مهارة قائمة بذاتها؛ فالمستخدم الذي يصيغ طلبه بلغة عامة يحصل على إجابة سطحية، أما الذي يحدد السياق مع الدور المتوقع من النموذج، مرورًا بنوع الإخراج المطلوب، فإنه يوجّه الذكاء الاصطناعي لإنتاج مخرجات عالية الجودة.

وأضاف: أنا شخصيًّا أستخدم نموذجًا هندسيًّا لتعليم هذه المهارة، يتضمن: تحديد المجال، وتوضيح الهدف، وتحديد العناصر المطلوبة، مع توجيه النموذج لدور معين، ووضع حدود أو استثناءات. والفرق بين المستخدم المبتدئ والمحترف يظهر بوضوح في النتائج؛ فالمبتدئ يطلب إجابة، أما المحترف فيطلب نتيجة مبنية على فهم منهجي مدروس.

ويتطرق في سياق حديثه إلى مستقبل الذكاء الاصطناعي الحواري وتأثيره القطاعي، ويقول إن المستقبل القريب يشير إلى أن الذكاء الاصطناعي الحواري سيكون جزءًا من النسيج العملي للمؤسسات، وليس مجرد إضافة تقنية.

ففي التعليم -على سبيل المثال لا الحصر- يمكن استخدامه كمساعد للمعلم، كونه يوفّر مصادر إضافية، ويقدّم تغذية راجعة للطلبة، كما يُخصّص المحتوى بناءً على مستوياتهم. أما في القانون، فيمكن أن يُستخدم في تحليل العقود، وصياغة المسودات القانونية، أو حتى مراجعة الأحكام القضائية، وفي الإعلام استُخدم فعليًّا في إعداد المحتوى الإخباري وصياغة العناوين ومراجعة التقارير. لكن هذا الانتشار يجب أن يُقابله تنظيم تشريعي واضح يضمن في الوقت ذاته حقوق المستخدم، كما يحدّ من سوء الاستخدام، خصوصًا في المجتمعات التي ما تزال في بدايات التحوّل الرقمي. ومن المهم، من هذا كله أيضًا، أن يُصاحب هذا التوسع استثمارٌ في بناء قدرات بشرية قادرة على التفاعل مع هذه الأدوات، لا كمستخدمين فقط، بل كمطورين وموجّهين لها.

ويُقدّم العبدلي رؤيته العلمية في هذا الجانب فيقول: "من خلال تجربتي في التدريب وبناء المشروعات باستخدام هذه المنصات، أستطيع أن أقول إن ثمة ثلاث نقاط مهمة يجب العمل عليها فيما يتعلق بالذكاء الاصطناعي الحواري، وهي: البدء بالتجربة مع عدم الاكتفاء بها؛ فالمعرفة النظرية مهمة، لكن التجريب العملي يكشف جوانب لم تكن واضحة في الشرح على سبيل التوضيح، مع العمل على تعلّم هندسة الأوامر؛ فهذه المهارة ليست رفاهية، بل شرط للاستفادة العميقة من النماذج، أضف إلى ذلك الحذر في التعامل مع البيانات؛ فالمنصات عمومًا لا تفرّق بين محتوى عادي وحساس، لذلك فمسؤولية الخصوصية تقع عليك كمستخدم أولًا، ويجب ألّا يتم التعامل مع الذكاء الاصطناعي كبديل للفكر البشري، بل كشريك يُساعد على الوصول لفكرة أو نتيجة، بشكل أسرع وأدق".

المصدر: لجريدة عمان

كلمات دلالية: هذه المنصات فی هذا

إقرأ أيضاً:

كيف يمكن للصحفيين اكتشاف التحيز في الذكاء الاصطناعي؟

سلط معهد رويترز لدراسة الصحافة الضوء على معضلة التحيّز في الذكاء الاصطناعي محذرا من مخاطره، لا سيما مع بدء 49% من المؤسسات الإخبارية استخدام نماذج الذكاء الاصطناعي، وفق أحدث استطلاع أجرته الرابطة العالمية للصحف وناشري الأخبار "ون إفرا" (WAN-IFRA).

وضمن تقرير مطوّل، حاولت راما شارما المستشارة والمدربة التنفيذية بالمعهد تقديم إجابات حول هذه المعضلة، عبر التحدث إلى 18 صحفيا وخبيرا إعلاميا وتقنيا وأكاديميا.

اقرأ أيضا list of 2 itemslist 1 of 2إعلامlist 2 of 2أكسيوس تجذب الجمهور بأسلوب تحريري فريدend of list

ويقول ماتياس هولويغ أحد خبراء برامج الذكاء الاصطناعي في كلية سعيد للأعمال بجامعة أكسفورد إن "التحيز سمة، وليس عيبا" في هذه الأدوات، موضحا أن أي نموذج ذكاء اصطناعي سيعكس التحيزات الموجودة بالبيانات التي جرى تدريبه عليها.

ويستمد "شات جي بي تي" مثلاً قرابة 60% من مواده التدريبية، من محتوى الويب في ويكيبيديا ومواقع أخرى مماثلة، بالإضافة إلى الكتب الرقمية والأوراق الأكاديمية. في حين أن النموذج الذي يتعلم من هذه المصادر سيرث بطبيعة الحال تحيزاتها.

وتحذر شارما هنا من حدوث ما وصفته بـ"التحيز الضار" أو "التحيز الخوارزمي" والذي يحدث عندما يتعلم النموذج من بيانات غير عادلة أو متحيزة بالفعل، لينتهي الأمر بعملية التعلم الطبيعية للذكاء الاصطناعي إلى عكس التحيزات المجتمعية القائمة وتضخيمها من المعلومات التي يتم تزويده بها، مما يؤدي إلى نتائج تعاقب أفرادا أو مجموعات معينة.

معهد رويترز لدراسات الصحافة دأب على إصدار تقارير سنوية عن الصحافة وتأثير التكنولوجيا عليها (الجزيرة)

ويمكن أن تظهر هذه الأخطاء في أي مرحلة من مراحل بناء النموذج، بدءا من جمع البيانات وتصميم النموذج وحتى النشر.

خبير تقني: التحيز يأتي من باحثين غربيين

ويحذر بيتر سلاتري -الذي يدير منصة مفتوحة المصدر تساعد الناس على فهم مخاطر الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا- من ظهور أضرار جديدة يوميا، كما يشعر بقلق إزاء طرق يمكن أن تؤثر بها هذه التقنيات على دول الجنوب.

إعلان

ويضيف "لقد لاحظت وجود تحيز في الكثير من الأدبيات التي ندرجها في قاعدة بياناتنا، حيث إنها تأتي في الغالب من باحثين في مؤسسات غربية نخبوية".

وتقول معدّة تقرير معهد رويترز إنه ليس من السهل معالجة التحيز في أنظمة الذكاء الاصطناعي، لافتة إلى أن الجهود حسنة النية قد تأتي بنتائج عكسية أحيانا، وقد تجلى ذلك عام 2024 عندما أنتج مولد الصور "جيميني" من غوغل صورا لنازيين سود، وفايكنغ من الأميركيين الأصليين، فيما بدا أنه محاولة لتنويع المخرجات، وقد أجبرت ردود الفعل الغاضبة آنذاك غوغل على تعليق هذه الميزة مؤقتا.

وتبين شارما أن إحدى الطرق المقترحة -التي تلقتها أثناء حضورها ورشة عمل تقنية بمعهد "آلان تورينغ" في لندن- هي اتخاذ نهج استباقي للمراقبة عند إنشاء أنظمة جديدة للذكاء الاصطناعي، يشمل تشجيع المهندسين وفرقهم على إضافة بيانات وصفية، في كل مرحلة من مراحل عملية إنتاج الذكاء الاصطناعي، بما في ذلك معلومات عن الأسئلة المطروحة، والتدابير التخفيفية المطبقة لتتبع القرارات المتخذة.

أنواع التحيز بالذكاء الاصطناعي

وشارك الباحثون الذين تحدثوا لـ"شارما" إلى 3 فئات من التحيزات التي قد تحدث، إلى جانب تلميحات للمساعدة في التخفيف منها:

1/تحيزات الإحصائية

وتنشأ عن عيوب في طريقة جمع البيانات أو أخذ العينات أو معالجتها، مما يؤدي إلى أخطاء منهجية. ومن الأنواع الشائعة، التحيز الناجم عن البيانات المفقودة، حيث تكون بعض المجموعات أو المتغيرات ممثلة تمثيلا ناقصا أو غائبة تماما من مجموعة البيانات.

فمثلا: مجموعة بيانات صحية تتضمن بيانات عن الرجال، وتغفل مؤشرات حول صحة المرأة (كالحمل أو التغيرات الهرمونية) قد تفشل نماذج الذكاء الاصطناعي المدربة على هذه المجموعة من البيانات في التعرف على احتياجات صحة المرأة، أو الاستجابة لها بشكل مناسب.

2/ تحيزات معرفية

وتعكس أنماط التفكير البشري التي تحيد عن الحكم العقلاني، فعندما تؤثر هذه التحيزات على كيفية اختيار البيانات أو تفسيرها أثناء تطوير النموذج، يمكن أن تصبح جزءا لا يتجزأ من أنظمة الذكاء الاصطناعي.

ويبيّن التقرير أن أحد الأشكال الشائعة هنا هو التحيز التأكيدي، ويقصد به الميل إلى البحث عن المعلومات التي تتوافق مع المعتقدات أو النظرة العالمية المسبقة أو تفضيلها.

وعلى سبيل المثال: قد يتم تصميم نظام توصية الأخبار باستخدام بيانات تم تنسيقها من قبل محررين ذوي ميول سياسية معينة. وإذا عزز النظام المحتوى الذي يتوافق مع هذه النظرة للعالم مع استبعاد وجهات النظر البديلة، فقد يؤدي ذلك إلى تضخيم التحيز التأكيدي لدى المستخدمين.

3/ تحيزات اجتماعية

وتنبع من التفاوت داخل الأنظمة أو الافتراضات الثقافية المتأصلة في البيانات، وغالبا ما تعكس الظلم التاريخي أو الممارسات التمييزية.

فمثلا: قد تتعلم أداة توظيف تعتمد على الذكاء الاصطناعي ومدربة على بيانات التوظيف التاريخية تفضيل المرشحين الذكور لشغل مناصب قيادية، إذا كانت قرارات التوظيف السابقة تفضل الرجال، مما يعزز المعايير الجنسانية القديمة ويستبعد النساء المؤهلات.

وأشار التقرير إلى أن البيانات القديمة يمكن أن تكون ضارة بقدر البيانات المفقودة. ونقل عن فلوران دودنس وهو صحفي سابق يعمل الآن مع شركة فرنسية متخصصة بالذكاء الاصطناعي قوله "إذا لم تتطور البيانات، يمكن أن ينتشر المحتوى الضار والتحيز خارج سياق مجموعة البيانات الأصلية، مما يؤدي إلى تفاقم الفجوات".

خطر التحيز المتعمد

ويحذر هولويج، الخبير في كلية سعيد للأعمال بجامعة أكسفورد من التغذية السريعة لنموذج الاصطناعي، وتسميم مجموعات البيانات، لافتا إلى أنها بمثابة أشكال من التحيز المتعمد.

غرف الأخبار وخاصة المؤسسات الكبرى تشهد مجهودات لدمج الذكاء الاصطناعي بالعمل (شترستوك)

والتغذية السريعة هي إضافة نص مخفي أو تلاعب بمدخلات لتضليل الذكاء الاصطناعي وتجاهل تعليماته أو التصرف بطريقة غير مقصودة. ويقصد بتسميم قاعدة البيانات إدراج معلومات كاذبة أو متحيزة في بيانات التدريب لتشويه سلوك الذكاء الاصطناعي أو مخرجاته، ومن الأمثلة على ذلك وضع تقييمات مزيفة للمنتجات.

إعلان

وقد بدأت بعض المؤسسات الإعلامية في الاستجابة لهذه المخاطر، حيث عينت الإذاعة البافارية في ميونخ مراسلة متخصصة في المساءلة الخوارزمية، للتحقيق في تأثير تكنولوجيا الذكاء الاصطناعي على المجتمع.

وأوضح التقرير أن بعض المبتكرين حاولوا إعادة تصور دور الذكاء الاصطناعي في الصحافة ليس فقط كأداة للإنتاجية، ولكن كعدسة لزيادة الوعي الذاتي.

ففي جامعة فلوريدا، ثمة فريق لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد في تحديد أنواع التحيز التي تظهر أثناء إنتاج الأخبار، وتعاون الفريق مع أخصائي لغويات وعلماء حاسوب من الجامعة، لدراسة كيفية صياغة الأخبار الهامة في مختلف وسائل الإعلام.

وخرج الفريق بنتائج أولية اعتبرت أن "الأفعال والصفات المرتبطة بمتظاهري حركة حياة السود مهمة" كانت كلمات نارية مثل "تشعل" و"تنفجر" و"تشعل شرارة" حتى عندما كانت المسيرات سلمية.

وفي الوقت نفسه، استخدمت التغطية الأميركية للاحتجاجات في الجامعات لغة أكثر عاطفية لوصف الخسائر الإسرائيلية مقارنة بمعاناة الفلسطينيين.

وفي ختام تقريرها، أكدت المستشارة بمعهد رويترز لدراسة الصحافة أن القضاء على التحيز قد يكون مستحيلا، لكن يمكن فهم هذه القضايا والتخفيف من حدتها من خلال فرق متعددة التخصصات ذات وجهات نظر واسعة.

مقالات مشابهة

  • الذكاء الاصطناعي يكشف خطر الإصابة بالسكري قبل الأعراض
  • كيف يمكن للصحفيين اكتشاف التحيز في الذكاء الاصطناعي؟
  • أبل تلمح إلى استثمار كبير في الذكاء الاصطناعي
  • ورقة بحثية: الذكاء الاصطناعي قد يدمر البشرية بحلول 2027
  • الجدل الاقتصادي في شأن الذكاء الاصطناعي (2/5)
  • آبل تلمح لصفقات ضخمة لتجاوز تأخرها في سباق الذكاء الاصطناعي
  • دبي الرقمية تكشف عن أول «أسرة إماراتية افتراضية» بالذكاء الاصطناعي – فيديو
  • يوتيوب يستخدم الذكاء الاصطناعي لتحديد المستخدمين القاصرين
  • زوكربيرغ: الذكاء الاصطناعي الخارق أصبح وشيكًا