يصادفك على منصات التواصل الاجتماعي، يوميا، منشورات تشرح لك أداة ذكاء اصطناعي جديدة تقدم خدمة ربما لم تكن تتوقعها.

مثلا، يمكن لطالب جامعي أن يستخدم أداة ذكاء اصطناعي تكتب له بحثا علميا من دون أن يفكر، في المقابل وبسرعة فائقة، يبتكر المبرمجون أداة ذكاء اصطناعي أخرى تمكن أستاذه من كشف هذا الغش.

أذهل الذكاء الاصطناعي التوليدي العالم، وحيرت أدواته الناس، وأصابهم قلق على مستقبلهم الذي تتحكم فيه تكنولوجيا متسارعة التطور.

إذ يقول يقول خبراء إنه “سيجعل معظم الناس في وضع أفضل خلال العقد المقبل”، لكن هناك “مخاوف من كيفية تأثيره على فكرة أن تكون إنسانا تمارس الإرادة الحرة”.

كيف ظهر الذكاء الاصطناعي؟ هل كان وليد صدفة؟ أم أن عقلا استثنائيا ابتكره؟ هل فعلتها شركات التكنولوجيا الكبرى وخلقت أدوات تتحكم بالبشر؟ وقد يكون أغرب سؤال: ما علاقة مسرحية “بجماليون” للكاتب المسرحي، جورج برنارد شو، بالذكاء الاصطناعي التوليدي؟
أول من فكر في الذكاء الاصطناعي التوليدي

لو سئلت: من أول شخص فكر بالذكاء الاصطناعي التوليدي؟ غالبا، سيخطر في بالك شركات التكنولوجيا الكبرى، مثل غوغل ومايكروسوفت وميتا. وربما أسماء شخصيات لمعت مثل، سام ألتمان، المدير التنفيذي لشركة “أوبن آيه أي” التي أطلقت “تشات جي بي تي”.

لكن هل تعلم أن قصة الذكاء الاصطناعي التوليدي بدأت عام 1966، حينما ابتكر عالم الحاسوب الألماني، جوزيف وايزنباوم، في معهد ماساتشوستس للتكنولوجيا، برنامج “إليزا” وهو أول تقنية تسمح بمحادثة بين البشر والآلة.

برنامج “إليزا” هو أول روبوت محادثة يعمل بالذكاء الاصطناعي، أطلق عليه اسم (chatbot)، وحينها استخدم للقيام بمهمة معالج نفسي وهمي، يحاكي البشر ويتفاعل معهم، تماما كما يفعل الذكاء الاصطناعي التوليدي هذه الأيام.

استوحى وايزنباوم اسم البرنامج “إليزا”، الذي أسس لفكرة الذكاء الاصطناعي التوليدي من شخصية، إليزا دوليتل، في مسرحية “بجماليون” للكاتب المسرحي، جورج برنارد شو، عام 1913.
ما علاقة المسرحية؟

تحكي مسرحية “بجماليون” قصة البروفيسور، هنري هيغينز، أستاذ في علم الصوتيات، الذي أصر على جعل فتاة فقيرة اسمها، إليزا دوليتل، سيدة من الطبقة الأرستقراطية في بريطانيا.

كانت إليزا تبيع الورد، ومن عامة الناس، كلامها سوقي، ولا يتوقع أحد أن تتقن فن التحدث مع أهل الطبقة الأرستقراطية. وفي أحداث المسرحية يدخل البروفسور هيغينز في تحد مع صديق له ليبرهن على قدرته جعل إليزا تتقمص شخصية دوقة في حفل.

اعتمد هيغينز على استراتيجية نفسية تجعل إليزا تعيد صياغة مفردات الكلام الموجه لها، فتخاطب الناس بعبارات ابتكرتها من كلامهم معها. وهذا هو المفهوم الذي يمكن البناء عليه للتعامل مع الآلة، إعادة صياغة مدخلات البشر لتقديمها لهم على شكل مخرجات.

المفارقة أن العالم وايزنباوم، الذي اخترع برنامج إليزا، سعى لإثبات مدى سطحية المحادثة بين الإنسان والآلة.

لكن النتائج جاءت معاكسة، فقد انبهر الناس بما توصل إليه وايزنباوم، وانخرطوا في محادثات طويلة مع الآلة من خلال برنامج قادر فقط على جعل الآلة تعكس كلمات المستخدمين وتحاكيهم بها.

كان وايزنباوم منزعجا جدا من رد فعل الناس المعجبين بالبرنامج، لدرجة أنه أمضى بقية حياته يحذر من مخاطر أجهزة الحاسوب والتكنولوحيا المتقدمة على عقول البشر.

لم يكن وايزنباوم يعرف أن برنامج “إليزا” سيدفع شركات التكنولوجيا لتطوير منصات وأدوات مذهلة في الذكاء الاصطناعي التوليدي.

صحيح أن وايزنباوم صاحب أول تجربة في الذكاء الاصطناعي التوليدي، لكنه ليس الأول في طرح فكرة الذكاء الاصطناعي العام الذي بني أساسا على جهد باحثين وصفوا بـ”الآباء المؤسسين” للذكاء الاصطناعي.
من هم “الآباء المؤسسون” للذكاء الاصطناعي؟

ولدت الفكرة من أطروحة فلسفية معقدة تقول مقدمتها: “هل تستطيع الآلة التفكير؟” للوصول إلى نتيجة، علينا أن نحدد معنى مصطلحي “الآلة” و”التفكير”. ستقودنا إجابة السؤال إلى “الأمل بأن تتنافس الآلات في نهاية المطاف مع البشر”، ولكن “ما هي أفضل الأشياء للبدء بها؟ هذا قرار صعب”. في الوقع، “لا أعرف ما هي الإجابة الصحيحة”. حتى الآن، “لا يمكننا أن نرى سوى مسافة قصيرة للأمام، ولكن يمكننا أن نرى الكثير مما يجب القيام به”.

الأطروحة هذه قدمها عالم الرياضيات الإنكليزي، آلان تورينغ، عام 1950، ونشرت في النسخة 236 من مجلة “Mind” البحثية التي تاسست عام 1876.

من هذه الأطروحة بدأ التأسيس الفلسفي لمفهوم الذكاء الاصطناعي، الذي يشهد العالم أهم ابتكاراته اليوم. فلا تصدق أن تكنولوجيا الذكاء الاصطناعي والابتكارات المذهلة تأتي بالصدفة، ولا بقدرات خارقة لأسماء لمعت وارتبطت بما يراه العالم اليوم.

فالعلم والتكنولوجيا يتقدمان بطريقة منطقية للغاية، وكل أطروحة علمية تبنى أساسا على ما سبقها من جهد بحثي. وهذا ما حصل بعد ست سنوات من سؤال العالم تورينغ.

ففي عام 1956، استضاف عالم الحاسوب الأميركي، مارفن مينسكي، وأستاذ الرياضيات الأميركي، جون مكارثي، مشروع كلية دارتموث البحثي الصيفي حول الذكاء الاصطناعي (DSRPAI) في نيو هامبشير بالولايات المتحدة.

في ذلك الحدث “صيغت كلمة “الذكاء الاصطناعي”، رسميا. وفي اقتراحه، قال مكارثي إن “المشروع كان من المفترض أن يستمر على أساس التخمين بأن كل جانب من جوانب التعلم، أو أي سمة أخرى من سمات الذكاء، يمكن من حيث المبدأ، وصفها بدقة شديدة، بحيث يمكن صنع آلة لمحاكاتها”.

هؤلاء العلماء أطلق عليهم “الآباء المؤسسون” للذكاء الاصطناعي الذي حددوا له خمسة مجالات: البحث، والتعرف على الأنماط، والتعلم، والتخطيط، والاستقراء.

في ذلك الوقت، اقترح مكارثي أن “أفضل أمل للذكاء الاصطناعي على المستوى البشري هو الذكاء الاصطناعي المنطقي، استنادا إلى إضفاء الطابع الرسمي على المعرفة المنطقية، والتفكير في المنطق الرياضي”.

مرت عشرات السنوات على ما طرحه “الآباء المؤسسون” للذكاء الاصطناعي من قواعد، وفيها حققت شركات التكنولوجيا الكبرى قفزات هائلة، فأنتجت سيارات ذاتية القيادة، وروبوتات ذكية، وأجهزة يمكنها منافسة البشر في الذكاء وأداء المهمات، وبرامج معقدة تحاكي البشر عرفت بالذكاء الاصطناعي التوليدي. وخلق هذا الواقع أسئلة صعبة عن مستقبل البشر.
فهل هذا ما سعى إليه “الآباء المؤسسون” للذكاء الاصطناعي؟

يعرض سام ألتمان، الرئيس التنفيذي لشر كة “أوبن آيه أي”، مبادئ عامة تعبر عن فلسفة شركته إزاء الذكاء الاصطناعي، والتي تؤكد على أن الذكاء العام الاصطناعي يهدف إلى تطوير مستقبل البشرية، مع الأخذ في الاعتبار المخاطر التي قد تنشأ عنه.

ويقول: “نحن لا نتوقع أن يكون المستقبل مدينة فاضلة، ولكننا نريد تعظيم الخير وتقليل الشر، وأن يكون الذكاء الاصطناعي العام بمثابة مكبر للصوت للإنسانية”، و”نريد أن نجتاز المخاطر الهائلة بنجاح”.

تخيل أن تورينغ، ومكارثي، ومينسكي ، ووايزنباوم، جلسا في قاعة يعرض فيها ألتمان فلسفته هذه، ماذا يقول هؤلاءالعلماء؟

قد يفخرون بالإنجاز الذي أسسوا لفكرته، وربما يشعرون بالخيبة، فيكرر تورينع ما قاله عام 1950: “لا أعرف ما هي الإجابة الصحيحة”. وربما يصر وايزنباوم على انزعاجه الذي عبر عنه عام 1966 من انجرار البشر وراء آلات تحاكيهم بسطحية. أو يعيد مكارثي و مينسكي التأكيد على ما قدماه عام 1956 بأن “أفضل أمل على مستوى البشر، هو التركيز على الذكاء الاصطناعي المنطقي”.

محمد أبوعرقوب – قناة الحرة

المصدر: موقع النيلين

كلمات دلالية: الذکاء الاصطناعی التولیدی شرکات التکنولوجیا بالذکاء الاصطناعی للذکاء الاصطناعی فی الذکاء

إقرأ أيضاً:

هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟

 

 

مؤيد الزعبي

بما أننا مقبلون على مرحلة جديدة من استخدامات الذكاء الاصطناعي وجعله قادرًا على اتخاذ القرارات بدلًا عنَّا يبرز سؤال مهم؛ هل سيصبح الذكاء الاصطناعي بوابتنا نحو مجتمع أكثر عدلًا وإنصافًا؟ أم أنه سيعيد إنتاج تحيزاتنا البشرية في قالب رقمي أنيق؟ بل الأخطر من ذلك: هل سيغدو الذكاء الاصطناعي أداة عصرية تمارس من خلالها العنصرية بشكل غير مُعلن؟

قد تحب- عزيزي القارئ- تصديق أن هذه الأنظمة "ذكية" بما يكفي لتكون حيادية، لكن الحقيقة التي تكشفها الدراسات أكثر تعقيدًا؛ فالذكاء الاصطناعي في جوهره يتغذى على بياناتنا وتاريخنا، وعلى ما فينا من تحامل وتمييز وعنصرية، وبالتالي فإن السؤال الحقيقي لا يتعلق فقط بقدرة هذه الأنظمة على اتخاذ قرارات عادلة، بل بمدى قدرتنا نحن على برمجتها لتتجاوز عيوبنا وتاريخنا العنصري، ولهذا في هذا المقال نقترب من هذه المنطقة الرمادية، حيث تتقاطع الخوارزميات مع العدالة، وحيث قد تكون التقنية المنقذ أو المجرم المتخفي.

لنقرّب الفكرة بمثال واقعي: تخيّل شركة تستخدم الذكاء الاصطناعي لفرز السير الذاتية واختيار المتقدمين للوظائف. إذا كانت خوارزميات هذا النظام مبنية على بيانات تحمل انحيازًا ضد جنس أو لون أو جنسية معينة، فقد يستبعد المرشحين تلقائيًا بناءً على تلك التحيزات. وهذا ليس ضربًا من الخيال؛ فقد وجدت دراسة حديثة أجرتها جامعة واشنطن (أكتوبر 2024) أن نماذج لغوية كبيرة أظهرت تفضيلًا واضحًا لأسماء تدلّ على أصحاب البشرة البيضاء بنسبة 85%، مقابل 11% فقط لأسماء مرتبطة بالنساء، و0% لأسماء تعود لأشخاص من ذوي البشرة السوداء، تُظهر هذه الأرقام المقلقة كيف أن خوارزميات الذكاء الاصطناعي، والتي تستخدمها نحو 99% من شركات "فورتشن 500"، يمكن أن تؤثر سلبًا على فرص ملايين الأشخاص الباحثين عن عمل، لا لسبب سوى أنهم وُلدوا بهوية مختلفة، أي أن تحيّز هذه الأنظمة يمكن أن يمس ملايين الباحثين عن العمل.

الأمر يزداد خطورة عند الحديث عن أنظمة التعرف على الوجوه، والتي تُستخدم حاليًا في تعقب المجرمين ومراقبة الأفراد. دراسات عديدة أثبتت أن هذه الأنظمة تخطئ بنسبة تصل إلى 34% عند التعامل مع النساء ذوات البشرة الداكنة، كما تُسجَّل أخطاء في التعرف على الوجوه الآسيوية، ما قد يؤدي إلى اعتقالات خاطئة أو مراقبة غير مبررة لأشخاص أبرياء، فقط لأن الخوارزمية لم تتعلم بشكل عادل، وتخيل الآن كيف سيكون الأمر عندما يدخل الذكاء الاصطناعي- بكل تحيزاته- إلى قاعات المحاكم، أو إلى أنظمة القضاء الإلكترونية، ليصدر أحكامًا أو يوصي بعقوبات مشددة، وحينها بدلًا من أن نصل لقضاء عادل سنصل لعدالة مغلفة بواجهة من الحياد الزائف.

ولننتقل إلى السيناريو الأكثر رعبًا: الذكاء الاصطناعي في المجال العسكري. ما الذي قد يحدث إذا تم برمجة أنظمة قتالية لتحديد "العدو" بناءً على لون بشرة أو جنسية؟ من يتحمل المسؤولية حين ترتكب هذه الأنظمة مجازر على أساس تحيز مبرمج مسبقًا؟ تصبح هذه الأنظمة أداة للقتل بعنصرية عقل إلكتروني، ومن هنا ستتفاقم العنصرية، وستصبح هذه الأنظمة بلا شك أداة لقتل كل ما تراه عدوًا لها ليأتي اليوم الذي تجدنا فيه نحن البشر ألذ أعدائها.

في قطاع الرعاية الصحية أيضًا يمكن للذكاء الاصطناعي أن يكون عنصريًا خصوصًا لو تم برمجتها لتتحكم بمستحقي الدعم الصحي أو حتى استخدامها في أنظمة حجز مواعيد العمليات، فلو وجد أي عنصرية بهذه الأنظمة؛ فبالطبع ستعطي الأولوية لأصحاب بشرة معينة أو جنسية معينة مما سيحرم الكثيرين من الوصول للعلاج في الوقت المناسب.

حتى نكون منصفين هنا نحتاج إلى تمييز دقيق بين نوعين من عنصرية الذكاء الاصطناعي: العنصرية المقصودة: الناتجة عن برمجة متعمدة تخدم مصالح أو توجهات محددة، والعنصرية غير المقصودة: الناتجة عن تغذية الأنظمة ببيانات غير عادلة أو تمثل واقعًا عنصريًا، فتُصبح الخوارزميات انعكاسًا له.

وأيضًا هناك مشكلة مهمة يجب معالجتها فلو عدنا لموضوع الرعاية الصحية؛ فلو قمنا بإدخال بيانات المرضى على هذه الأنظمة وكان حجم البيانات لفئة معينة أكثر من فئة أخرى فربما يعالج الذكاء الاصطناعي هذا الأمر على أن فئة معينة لا تحتاج للعلاج أو تحتاج لرعاية صحية أقل من غيرها وبالتالي يستثنيها من علاجات معينة أو مطاعيم معينة مستقبلًا، ولهذا يجب أن نعمل على تنقيح بيناتنا من العنصرية قدر الإمكان لتجنب تفاقم الأزمة مستقبلا.

يجب ألا نعتقد أبدًا بأن الذكاء الاصطناعي سيكون منصفًا لمجرد أنه آلة لا تفاضل شيء على شيء، فهذا سيمكن الصورة النمطية الموجودة حاليًا في مجتمعاتنا، فالذكاء الاصطناعي تقنية مازالت عمياء وليست واعية بما يكفي لتميز أية التمييز وتحذفه من برمجياتها، إنما تأخذ الأنماط الموجودة وتبني عليها، وسنحتاج وقت أطول لمعالجة هذه الفجوة كلما مضى الوقت.

إذا سألتني عزيزي القارئ ما هي الحلول الممكنة نحو ذكاء اصطناعي عادل وشامل، فالحلول كثيرة أهمها أن نوجد أدوات ذكاء اصطناعي قادرة على إيجاد العنصرية وتبدأ بمعالجتها واستثنائها في خوارزمياتها، وهذه مسؤولية الشركات الكبرى التي تبني نماذج الذكاء الاصطناعي، وثانيًا يجب أن نطور أنظمة ذكاء اصطناعي مبنية على العنصرية فهذه الأنظمة ستطور من نفسها وستكون عدوة للبشرية في قادم الأيام، أيضًا يجب أن يكون هناك تنويع في البيانات  فكلما انعكس التنوع في البيانات والتصميم، كلما انخفضت احتمالية انتشار النتائج العنصرية وحققنا الإنصاف المطلوب.

في النهاية يجب القول إن الذكاء الاصطناعي ليس عدوًا بالضرورة، لكنه قد يكون كذلك إذا تركناه يتغذّى على أسوأ ما فينا وأقصد هنا العنصرية.

رابط مختصر

مقالات مشابهة

  • تقنيات الذكاء الاصطناعي.. تحد حتمي
  • صحة كوردستان تكشف حقيقة وفاة شخص بسبب الذكاء الاصطناعي
  • تمكين الكفاءات السعودية في عصر الذكاء الاصطناعي
  • سام ألتمان.. رأس الحربة في الذكاء الاصطناعي الإمبريالي
  • سامسونج تكشف عن أرخص هواتف الذكاء الاصطناعي
  • علماء روس يستخدمون الذكاء الاصطناعي في فهم الجينات
  • هل يخفي الذكاء الاصطناعي عنصرية خلف خوارزمياته الذكية؟
  • أنا إنت" أول أغنية لمحمد رمضان بتقنيات الذكاء الاصطناعي
  • كيف غير الذكاء الاصطناعي شكل التصعيد بين إيران والاحتلال؟
  • شاهد الأب الروحي للذكاء الاصطناعي يحذر من خطره على البشر