ذكاء اصطناعي بلا أحكام بشرية مسبقة.. كيف نكسر الحلقة الجهنمية؟
تاريخ النشر: 19th, May 2024 GMT
يحدث الذكاء الاصطناعي تحوّلاً تدريجياً في حياة الناس اليومية، إذ يُسهّل المهام البسيطة أو المعقدة، لكنّ الأحكام البشرية المسبقة تكثر في الكمّ الكبير من المعلومات التي يقوم عليها، مما ينذر بانتقال عدوى التمييز إلى العقل الآلي، فهل يمكن جعلُه محايداً؟
في رأي الخبراء الذين تحدثوا لوكالة فرانس برس فإن هذا الأمر غير ممكن في الوقت الراهن، ملخصّين وجهة نظرهم بأن "الخميرة لا يمكن أن تُزال من قالب الحلوى بعد خَبزِه".
وهذا الاستنتاج يصحّ خصوصاً على الذكاء الاصطناعي التوليدي، إذ أن برامجه تنهل معلوماتها من الإنترنت، فتتغذى من المواقع الإلكترونية وشبكات التواصل الاجتماعي ومقاطع الفيديو، وسوى ذلك، لتُنتِج في المقابل كل أنواع المحتوى، على الطلب.
إلاّ أن الانطباع الذي تتركه قدرات الذكاء الاصطناعي التوليدي قد يكون خادعاً، إذ أن برامجه على غرار "تشات جي بي تي" تبقى مجرّد آلات قائمة على منطق الرياضيات، تتنبأ بالكلمات أو وحدات البكسل الأكثر احتمالاً واحدة تلو الأخرى.
وقال مدير المنتجات في شركة "المبيك" الناشئة للذكاء الاصطناعي جايدن زيغلر إن النماذج اللغوية لبرامج الذكاء الاصطناعي التوليدي "لا تُدرك ما تعرفه، أو لماذا تعرفه". وشرح أنها "لا تستطيع تمييز ما هو متحيز أم لا، وما يتسم بالشمول أم لا، لذلك لا يمكنها فعل أي شيء حيال ذلك".
وفي غياب الإعدادات الإضافية، إذا طلب المستخدم صورة لمدير شركة، يحصل على صور لرجال بيض أربعينيين يرتدون بدلات.
ولاحظ جوشوا ويفر الذي يدير منظمات غير حكومية في تكساس تُعنى بحقوق الإنسان في القضاء أن "هذه النماذج بمثابة مرايا لتاريخ البشر وثقافتهم". وأكّد أنها "لن تتوصل إلى نتائج تختلف جوهرياً عن المعلومات المخزّنة".
"المُرشِّح الاجتماعي"ورأى هذا المحامي أن الخطر يتمثل في انتقال أحكام البشر المسبقة إلى برامج الذكاء الاصطناعي "الذي يعزز بدوره أفكارهم المسبقة"، واصفاً هذا الوضع بـ"حلقة جهنمية".
وتبدو الحلول التكنولوجية لهذا الخطر محدودة، إذ أن إعادة التدريب الكاملة لبرامج الذكاء الاصطناعي التوليدي التأسيسية وتلقينها بيانات غير متحيزة ستستغرق وقتاً طويلاً، وترتّب تكلفة باهظة، ولا توجد أصلاً مجموعة محددة من المعلومات "المحايدة".
من هذا المنطلق، تحاول الشركات "مواءمة" نماذج الذكاء الاصطناعي مع القيم المنشودة، من خلال فرض القواعد عليها. وبالتالي، توقفت معظم برامج الدردشة الآلية عن التعبير عن المشاعر التي لا تتمتع بها، واصبحت تنتج نتائج أكثر تنوعاً.
وقال المؤسِس المشارك لشركة "ألمبيك" توماس بويغ "نضع لهذه النماذج مُرشِّحات اجتماعية" فتصبح أشبه "بالأشخاص ذوي الآراء الحادّة الذين تعلموا ألا يجاهروا بما يفكرون فيه".
ولكن تبيّن في فبراير الفائت أن ثغرات ونقاط ضعف تشوب طريقة "الفلاتر"، عندما استجاب برنامج الذكاء الاصطناعي التوليدي "جيميناي" (من "غوغل") طلبات لإدراج رجل أسود وامرأة آسيوية ضمن صور عن جنود ألمان من الحرب العالمية الثانية.
وتحت ضغط المنافسة، تستعجل شركات التكنولوجيا العملاقة ابتكار أدوات مساعدة قائمة على الذكاء الاصطناعي وتوفيرها للمستخدمين بسرعة كبيرة.
ولاحظت الباحثة في منصة الذكاء الاصطناعي التعاونية "هاغينغ فايس"، ساشا لوتشيوني، إن هذه الشركات ترغب كثيراً في أن تكون قادرة على مَحو ما تعلمته النماذج اللغوية آلياً.
لكنها اعتبرت أن "السعي إلى أيجاد حل تكنولوجي هو خيار في الاتجاه الخاطئ".
"علاج"وشدّد جوشوا ويفر على أن الأكثر إلحاحاً هو تثقيف البشر في شأن هذه الأدوات الجديدة، وهي آلات توحي أن لديها وعياً. وتمنى لو يتوافر "القليل من الفطرة السليمة".
ونصح بالحرص على التنوّع في فرق المهندسين المسؤولين عن هذه البرامج، إذ غالباً ما يكون أعضاؤها شديدي التجانس، من الشباب المنتمين إلى خلفيات متشابهة، وليس بينهم الكثير من وجهات النظر المختلفة".
ومع أن "تشات جي بي تي" أظهر خلال أحدث عرض توضيحي للشركة التي صممته "أوبن إيه آي" قدرة على "قراءة" مشاعر مستخدميه على وجوههم، يبقى السؤال هل سيكون في وسعه تفسير تعابير وجوه الأشخاص المنتمين إلى كل الثقافات بشكل صحيح؟
إلاّ أن الخبراء ذكّروا بأن الذكاء الاصطناعي التوليدي لا يزال في مراحله الأولى. وتستكشف شركات ناشئة عدة طرقاً مختلفة.
فشركة "بينيكون" مثلاً تخصصت في "التوليد المعزز بالاسترداد" أو ما يُعرف اختصاراً بـ"راغ" RAG، وهو عبارة عن إنشاء قواعد بيانات موثوق بها ومضبوطة بصرامة، تغرف منها أداة المساعدة القائمة على الذكاء الاصطناعي العناصر.
وأعطى كبير مسؤولي التكنولوجيا في الشركة، رام سريهارشا، مثالا تطبيقاً في إحدى شركات المحاماة: "أداة المساعدة القائمة على الذكاء الاصطناعي - نموذج اللغة - خبيرة في اللغة الإنكليزية، وليس في القانون. فلنتخيل لو كان يستطيع الوصول إلى محامٍ يعرف كل الملفات. سيتمكن في هذه الحالة من الإجابة عن أي سؤال قانوني!".
على المدى البعيد، يأمل المهندسون في أن يتيحوا للآلات القدرة على أن تقدّر عواقب سلوكها.
وقال جايدن زيغلر "في الوقت الراهن، هي مجرّد صناديق سوداء لا يمكن فهمها (...) ولكن ربما يمكننا في المستقبل تصميم مستوى أعلى يستطيع فيه النموذج فرز المعلومات الجيدة من تلك السيئة، مع نظام مكافآت".
وقال توماس بويغ مازحاً "باختصار، ستتمكن نماذج الذكاء الاصطناعي من الخضوع للعلاج".
المصدر: الحرة
كلمات دلالية: الذکاء الاصطناعی التولیدی على الذکاء الاصطناعی
إقرأ أيضاً:
البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
في ظاهرة تبدو كأنها خرجت من قصص الخيال العلمي، كشفت دراسة حديثة أن البشر بدؤوا بالفعل تبني أسلوب لغوي يشبه إلى حد كبير أسلوب الذكاء الاصطناعي التوليدي مثل تشات جي بي تي.
هذا التحول الصامت، الذي رصده باحثون في معهد "ماكس بلانك لتنمية الإنسان" في برلين، لم يقتصر على المفردات فحسب، بل امتد إلى بنية الجمل والنبرة العامة للحديث، مما يثير تساؤلات عميقة حول مستقبل اللغة والتنوع الثقافي في عصر هيمنة الآلة ومنطقها في التفكير.
اقرأ أيضا list of 2 itemslist 1 of 2"كل ما نريده هو السلام".. مجتمع مسالم وسط صراع أمهرة في إثيوبياlist 2 of 2سيرة أخرى لابن البيطار بين ضياع الأندلس وسقوط الخلافةend of list تسلل إلى حواراتنا اليوميةاعتمدت الدراسة، التي لم تنشر بعد في مجلة علمية وتتوفر حاليا كنسخة أولية على منصة (arXiv)، على تحليل دقيق لمجموعة ضخمة من البيانات اللغوية، شملت ما يقرب من 360 ألف مقطع فيديو من منصة يوتيوب الأكاديمية و771 ألف حلقة بودكاست. وقام الباحثون بمقارنة اللغة المستخدمة في الفترة التي سبقت إطلاق" تشات جي بي تي" في أواخر عام 2022 وما بعدها، وكانت النتائج لافتة.
لاحظ الفريق البحثي زيادة حادة في استخدام ما أطلقوا عليه "كلمات جي بي تي"، وهي مفردات يفضلها النموذج اللغوي، مثل "delve" (يتعمق)، "meticulous" (دقيق)، "realm" (عالم/مجال)، "boast" (يتباهى/يتميز)، و"comprehend" (يستوعب). هذه الكلمات، التي كانت نادرة نسبيا في الحوار اليومي العفوي، شهدت طفرة في الاستخدام. على سبيل المثال، ارتفع استخدام كلمة "delve" وحدها بنسبة 48% بعد ظهور تشات جي بي تي.
وللتأكد من هذه "البصمة اللغوية"، قام الباحثون باستخلاص المفردات التي يفضلها النموذج عبر جعله يعيد صياغة ملايين النصوص المتنوعة. ووجدوا أن استخدام هذه الكلمات في كلام البشر المنطوق ارتفع بنسبة قد تصل إلى أكثر من 50%، مما يؤكد أن التأثير لم يقتصر على النصوص المكتوبة، بل امتد إلى المحادثات اليومية.
تغير في الأسلوب والنبرةالمفاجأة الكبرى في الدراسة لم تكن في المفردات فحسب، بل في النبرة الأسلوبية العامة. لاحظ الباحثون أن المتحدثين بدؤوا يتبنون أسلوبا أكثر رسمية وتنظيما، وجملا أطول، وتسلسلا منطقيا يشبه إلى حد كبير المخرجات المنظمة للذكاء الاصطناعي، بعيدا عن الانفعالات العفوية والخصوصية اللغوية. هذه الظاهرة تعني أننا نشهد مرحلة غير مسبوقة: البشر يقلدون الآلات بطريقة واضحة.
إعلانيصف الباحثون ما يحدث بأنه "حلقة تغذية ثقافية مغلقة" (closed cultural feedback loop)؛ فاللغة التي نعلمها للآلة تتحول، بشكل غير واع، إلى اللغة التي نعيد نحن إنتاجها.
يقول ليفين برينكمان، أحد المشاركين في الدراسة: "من الطبيعي أن يقلد البشر بعضهم بعضا، لكننا الآن نقلد الآلات"، في مشهد يؤكد تحول الذكاء الاصطناعي إلى مرجعية ثقافية قادرة على التأثير في الواقع البشري.
تآكل التنوع اللغويرغم الطابع الطريف الذي قد تبدو عليه هذه الظاهرة، فإن الدراسة تحمل في طياتها تحذيرا جادا حول مستقبل التنوع الثقافي واللغوي. يلفت الباحثون الانتباه إلى أن اعتمادنا المفرط على أسلوب لغوي موحد، حتى لو بدا أنيقا ومنظما، قد يؤدي إلى تآكل الأصالة والتلقائية والخصوصية التي تميز التواصل الإنساني الحقيقي.
وفي هذا السياق، يحذر مور نعمان، الأستاذ في معهد "كورنيل تك"، من أن اللغة عندما تكتسب طابع الذكاء الاصطناعي قد تفقد الآخرين ثقتهم في تواصلنا، لأنهم قد يشعرون بأننا نسعى لتقليد الآلة أكثر من التعبير عن ذواتنا الحقيقية.
تشير الدراسة إلى أن ما بدأ كأداة للمساعدة في الكتابة والبحث قد تحول إلى ظاهرة ثقافية واجتماعية مرشحة للتوسع. فإذا كان الإنترنت قد أدخل على لغتنا اختصارات تقنية مثل "LOL"، فإن ما يحدث اليوم هو انعكاس مباشر لعلاقة أعمق وأكثر تعقيدا بين الإنسان والذكاء الاصطناعي.
وتؤكد هذه النتائج أن اللغة ليست مجرد كلمات، بل هي مرآة للسلطة الثقافية ومنبع للهوية. ومع تحول الذكاء الاصطناعي إلى جزء من هذه السلطة، فإن تبنينا لأسلوبه قد يعني أننا، وبشكل غير محسوس، نفقد جزءا من شخصيتنا وهويتنا اللغوية الفريدة في ساحة معركة هادئة تكتب فيها فصول جديدة من تاريخ التواصل البشري.