سان فرانسيسكو ـ "د.ب.أ": أصبح البشر في الآونة الأخيرة يستخدمون تطبيقات الذكاء الاصطناعي في كتابة أكواد الكمبيوتر وتلخيص المقالات والكتب بل وتقديم المشورة، وصار البعض يستخدمونها في توليد نصوص مكتوبة من العدم، مع إضافة بعض الكلمات أو اللمسات اللغوية لإضفاء صبغة شخصية على النص المكتوب. وليس من المستغرب أن تمثل هذه الظاهرة الجديدة إشكالية للمدرسين والمشرفين الذين يتم تكليفهم بتقييم القدرات الكتابية لطلابهم، كما أنها تثير قلق بعض الأشخاص الذين يطلبون المشورة فيما يتعلق بمشكلاتهم النفسية والاجتماعية على بعض المنتديات المتخصصة، أو يسعون للحصول على رأي فني بخصوص منتج أو سلعة ما قبل الإقدام على الشراء.

ويقول الباحث روجر كرويتس اخصائي علم النفس بجامعة ممفيس الأمريكية إنه خلال السنوات القليلة الماضية، عكف الباحثون والمتخصصون على محاولة استكشاف مدى إمكانية تمييز النص الذي يكتبه البشر عن النص المصنوع بواسطة تطبيقات الذكاء الاصطناعي على اختلاف أنواعها، وأشار في مقال نشره الموقع الإلكتروني The Conversation المتخصص في المقالات البحثية إلى أن العديد من الدراسات التي أجريت مؤخرا سلطت الضوء على صعوبة التعرف على النصوص المكتوبة بواسطة برامج الذكاء الاصطناعي. وقد أكدت دراسة أجريت عام 2021 على الانترنت أن المشاركين لم يستطيعوا التمييز بين قصص ومقالات صحفية ووصفات لمأكولات معينة كتبها بشر أو صاغتها تطبيقات الذكاء الاصطناعي.

وأشار كرويتس إلى أن خبراء اللغة لم يحققوا أداء أفضل في التعرف على النصوص المصنوعة بواسطة الذكاء الاصطناعي. وخلال دراسة أخرى أجريت عام 2023، لم يستطع مجلس تحريري يضم كبار الصحفيين المتخصصين في علوم اللغويات تحديد مسودات المقالات التي وضعها كتاب بشر وتمييزها عن المسودات التي صاغها تطبيق "تشات جي.بي.تي"، وتوصلت دراسة ثانية أجريت عام 2024 أن المصححين بإحدى الجامعات البريطانية لم يستطيعوا اكتشاف 94% من الإجابات التي تم إعدادها بواسطة تطبيق "تشات جي.بي.تي".

ويرى كرويتس أن استخدام بعض المفردات غير المعتادة أو النادرة في النص قد تكون مؤشرا لتحديد هوية الكاتب ومعرفة ما إذا كان من البشر أو من تطبيقات الذكاء الاصطناعي. وقد رصد المتخصصون بالفعل زيادة ملحوظة في استخدام بعض الألفاظ غير الشائعة في الأوراق البحثية خلال السنوات القليلة الماضية مثل delves وتعني "يتعمق" وكلمة crucial وتعني "مهم"، ومن المعتقد أن استخدام مثل هذه المفردات هو مؤشر على أن تلك النصوص هي من صياغة بعض تطبيقات الذكاء الاصطناعي، وهو ما يظهر أن بعض الباحثين اعتادوا مؤخرا على كتابة أو تحرير أجزاء من أوراقهم البحثية بواسطة مثل هذه التطبيقات.

وأعرب المشاركون في استطلاع لتحديد أهم السمات التي تميز النصوص المكتوبة بواسطة تطبيقات الذكاء الاصطناعي عن اعتقادهم أن الإفراط في استخدام بعض علامات الترقيم مثل الشرطة السفلية، التي توضع للفصل بين عبارات أو أفكار معينة أثناء الكتابة قد يكون من المؤشرات الدالة على النصوص المصنوعة بواسطة التطبيقات الإلكترونية. ويرى الباحثون أن السبب وراء هذا الاعتقاد أن استخدام مثل هذه النوعية من علامات الترقيم لا يتم إلا بواسطة الكتاب المتمرسين، وبمعنى آخر، ربما يسود اعتقاد أن النص المكتوب بشكل "جيد جدا" هو على الأرجح من تأليف أحد تطبيقات الذكاء الاصطناعي.

ويقول كرويتس إنه من الممكن محاولة التمييز بين النصوص المكتوبة بواسطة البشر أو التطبيقات الإلكترونية من خلال ما يعرف باسم علم "القياس الأسلوبي" Stylometry الذي يعتمد على تطبيق أساليب إحصائية ولغوية حاسوبية لتحليل النص المكتوب. وفي هذا السياق، ابتكر الباحث الأسترالي جون بوروز المتخصص في علم "الأسلوبية الحاسوبية" تطبيقا حوسبيا يعرف باسم Burrows Detla. ويعتمد هذا الطبيق على قياس مدى تكرار الألفاظ الشائعة والمفردات نادرة الاستخدام في نص معين، كوسيلة لتحديد هوية الكاتب. ولكن من أوجه قصور هذه التقنية أنها تحتاج إلى نصوص طويلة نسبيا حتى تؤتي ثمارها، لاسيما بعد أن أثبتت دراسة أجريت عام 2016 ضرورة ألا يقل حجم النص محل الاختبار عن ألف كلمة على الأقل حتى يتسنى تحديد هوية المؤلف.

واستخدمت بعض الدراسات الحديثة ما يعرف باسم نماذج BERT اللغوية وهي اختصار لمصطلح Bidirectional Encoder Representations from Transformers أي "تمثيلات التشفير ثنائية الاتجاه من المحولات" وهي نموذج لغوي يساعد في تحسين فهم الحاسبات للغة البشرية عن طريق تحليل العلاقة بين المفردات داخل النص اللغوي من أكثر من اتجاه. ويرى كرويتس أن هذه التقنية يمكنها تمييز النصوص المكتوبة بواسطة تطبيقات الذكاء الاصطناعي بنسب تتراوح ما بين 80% إلى 98%، وإن كانت غير متاحة للمستخدم العادي غير المتخصص.

وفي محاولة لحل هذه المعضلة، وجه كرويتس نفس الاستفسار إلى تطبيق "تشات جي.بي.تي" وسأله كيف يمكن التعرف على النص المكتوب بواسطة تطبيقات الذكاء الاصطناعي، فأجاب التطبيق نفسه أن هذ الأمر قد يكون صعبا ولكنه حدد بعض السمات اللغوية التي قد تساعد في اكتشاف مثل هذه النصوص. وذكر تشات جي.بي.تي أن النصوص المكتوبة بواسطة تطبيقات الذكاء الاصطناعي تتضمن ما يعرف باسم عبارات "التحوط" التي تعبر عدم اليقين مثل "في كثير من الأحيان" أو "بشكل عام"، وتتسم هذه النصوص أيضا بسمة "التكرارية"، والاعتماد على أسلوب القوائم أو النقاط، وكذلك استخدام "الأساليب الحيادة المنمقة" مع استخدام بعض الصفات مثل "بشكل ملموس" أو "بشكل ملحوظ"، وقد تتضمن بعض المصطلحات الأكاديمية على غرار "تداعيات" و"تعقيدات" وغيرها.

وفي نهاية المطاف، أكد التطبيق أنه رغم شيوع هذه السمات في النصوص المكتوبة بواسطة الذكاء الاصطناعي بشكل عام، فإنها لا تتيح إمكانية تحديد النصوص المصنوعة آليا بشكل قاطع.

المصدر: لجريدة عمان

كلمات دلالية: تشات جی بی تی بواسطة تطبیق استخدام بعض أجریت عام یعرف باسم على النص مثل هذه

إقرأ أيضاً:

هل اقتربنا من سيناريوهات انفجار الذكاء الاصطناعي؟

انتقل الذكاء الاصطناعي من مجرد أداة تُستخدم في الترجمة وإعداد النصوص وتحليل البيانات إلى قوة صاعدة تفرض نفسها في برامج الهندسة والصناعة والطب وحتى الإعلام والسياسة والأمن.

ولم يعد النقاش الحالي يتناول قضايا الذكاء الاصطناعي وقدرته على أداء المهام التقليدية من ترجمة وتحليل للبيانات وتلخيص للنصوص، وإنما أصبح التركيز يدور حول الفرضيات التي تقول إن هذا المجال سيدخل في مرحلة "الانفجار الذاتي" أي إعادة برمجة ذاته عبر تطوير خوارزميات جديدة من دون الاعتماد على المبرمج البشري.

اقرأ أيضا list of 2 itemslist 1 of 2لماذا تدعم دول جزر المحيط الهادي إسرائيل؟list 2 of 2أبرز ما نشرته مراكز الدراسات والأبحاث في أسبوعend of list

وبشأن الأبحاث والتقارير التي تناقش فرضية الذكاء الاصطناعي ودخوله قريبا في مرحلة جديدة تتيح له أن يصبح كيانا مستقلا قادرا على إعادة تصميم ذاته، نشر موقع مركز الجزيرة للدراسات ورقة بحثية تحت عنوان "الذكاء الاصطناعي وإعادة البرمجة الذاتية: سيناريوهات الانفجار الذكي".

الورقة البحثية -التي أعدها الدكتور خالد وليد محمود رئيس قسم الإعلام والاتصال في معهد الدوحة للدراسات العليا- ناقشت جذور فرضية الانفجار الذكي للذكاء الاصطناعي، ومن يتحكم في هذه القوة، وإشكالية الاستقلال والاعتماد على الذات.

أبحاث تقول إن الذكاء الاصطناعي في عام 2027 سيدخل مرحلة الانفجار الذكي (رويترز)فكرة الانفجار الذكي وجذورها

في أبريل/نيسان 2025، نشر مشروع "مستقبل الذكاء الاصطناعي" تقريرا رسم صورة مذهلة عن الذكاء الاصطناعي مفاده أنه خلال عامين سيكون قادرا على القيام بدور المهندس، إذ يمكن أن يعتمد على ذاته في إعادة تصميم بنيته الداخلية.

وتفاعلت وسائل الإعلام العالمية مع هذا التقرير، حيث أشارت مجلة " ذا نيويوركر" (the new Yorker) إلى مسارين متباينين حول مستقبل الذكاء الاصطناعي:

الأول: يرجح أن يكون له مستقبل يفوق الإنسان في جميع المجالات. أما الاحتمال الثاني: فيفترض أن التحول لن يكون سريعا، لاعتماده على محدودية الموارد وتأجيل الحوكمة. إعلان

وفي الوقت الذي وصفت فيه بعض وسائل الإعلام العالمية هذه التقارير والأبحاث بأنها تبقى في سياق الفرضيات المحملة بالجدلية، فإنها دعت إلى صياغة سياسات استباقية للتعامل مع احتمالية التطور الذي يفوق التدخل البشري.

ويعود جذور مفهوم "الانفجار الذكي" إلى عام 1965، حين نشر عالم الرياضيات البريطاني آي. جي. غود (I.j. good)  مقالا بعنوان: "تخمينات حول أول آلة فائقة الذكاء"، تنبّأ فيه بأن أول آلة فائقة الذكاء ستتمكن من تحسين تصميمها الذاتي باستمرار حتى تصل إلى مرحلة يصعب على البشر اللحاق بها.

وقد تبين أن هذه الرؤية التي بدت حينها أقرب إلى الخيال العلمي أو التأمل الفلسفي، تحولت لاحقا إلى فرضية مركزية في أدبيات الذكاء الاصطناعي والفلسفة العقلية، وخرجت من نطاق النقاشات الأكاديمية إلى مجالات التطبيق والممارسة الفعلية.

وبعد فكرة العالم البريطاني، جاء الفيلسوف السويدي، نيك بوستروم (Nick Bostrom)، ليُطوّرها بشكل منهجي في كتابه: "الذكاء الفائق: المسارات، المخاطر، الإستراتيجيات"، حيث وضع فيه سيناريوهات مفصلة للانفجار الذكي، محذرا من أن لحظة الوصول إلى ذكاء فائق قد تكون أسوأ ما تواجهه البشرية.

من جانب آخر، وجّه باحثون -مثل غاري ماركوس (Gary Marcus) وأرفيند نارايانان (Arvind Narayanan)- انتقادات حادة لفكرة الانفجار الذكي، معتبرين أن الحديث عن قفزة مفاجئة نحو ذكاء فائق، يتجاهل القيود التقنية والمادية الصارمة التي تحكم تطور الخوارزميات.

ويجادل هذا الفريق بأن الذكاء الاصطناعي، مهما بلغت قدراته، سيظل قائما على بيانات ومعالجات مادية، وأنه لا يمكن فصله عن القيود البشرية المتعلقة بالطاقة والموارد والتكلفة.

وعلى الصعيد العملي، أصبح "الذكاء الفائق" جزءا من إستراتيجيات الحكومات الكبرى، فالولايات المتحدة والصين والاتحاد الأوروبي يتعاملون مع هذه الأفكار بوصفها سيناريو واقعيا لا محالة ينبغي الاستعداد له، وليس قصة من الخيال العلمي أو الأفكار الفلسفية.

مشكلة القدرة على الاستقلالية

ورغم الإشارات القوية التي تصب في اتجاه فرضية الانفجار الذاتي للذكاء الاصطناعي، فإن الوقت الراهن يكشف أن الحاجة ما زالت قائمة للاعتماد على البشر، وأن الأنظمة الذكية لا تزال غير قادرة على الاعتماد على ذاتها.

فالنماذج الأكثر تقدما في الذكاء الاصطناعي اليوم مثل "تشات جي بي تي" (ChatGPT)، و"جيميني" (Gemini)، و"كلود" (Claude) كلها تعمل ضمن إطار بنية تحتية بشرية معقدة وضخمة إلى حدّ مذهل، إذ تحتاج إلى ملايين من المعالجات الفائقة موزعة على مراكز بيانات عالمية، تستهلك وحدها طاقة كهربائية تعادل استهلاك مدن صغيرة أو حتى متوسطة الحجم.

وبالإضافة إلى ذلك تعتمد هذه الأنظمة على شبكات إنترنت عالية الكفاءة، وأنظمة تبريد هائلة للحفاظ على استقرار الأجهزة والوسائل اللوجيستية، وسلسلة طويلة من الخبراء والمهندسين الذين يشرفون على كل تفصيل، ويقومون بالمراقبة والتنظيم والتدخل.

ورغم كل ذلك فإن الباحثين يقولون إن المؤشرات تثبت وجود ملامح قدرات على إعادة البرمجة الذاتية، حيث ظهرت برامج تستطيع تعديل بنيتها الداخلية وتوليد خوارزميات وأكواد جديدة لتحسين الأداء.

إعلان

وبناء على ذلك يمكن القول إن العالم يقف عند مفارقة لافتة للانتباه، وهي الأنظمة الحالية قوية وأصبحت تفوق توقعات العقد الماضي، بيد أنها في الوقت ذاته لا تزال هشة وتعتمد كليا على البشر.

من يمتلك الذكاء الفائق؟

وانطلاقا من فرضية أن نظاما قادرا على تطوير نفسه قد ظهر بالفعل، فإن الإشكال الجيوسياسي سيزيد من التعقيد المتعلق بالذكاء الاصطناعي الخارق.

فمن سيملك التحكم في هذا النظام؟ هل تكون الولايات المتحدة عبر شبكات وادي السيليكون التي تسيطر على البنية التحتية للذكاء الاصطناعي وتملك رأس المال الثقافي والتمويلي؟ أم ستكون الصين التي تراهن على الدمج العميق بين الدولة والجيش والشركات، وتستثمر مواردها الهائلة لتصبح صاحبة الريادة؟

أوروبا بدورها اتخذت مسارا تشريعيا عام 2014، عبر قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي وضع قواعد صارمة للشفافية والأمان والنزاهة.

وعلى مستوى الشرق الأوسط، فقد ظهرت إستراتيجيات السيادة الرقمية التي تبنتها دولتا قطر والإمارات إدراكا بأن من يمتلك البيات يكون له حضور في المشهد السياسي والعسكري في المستقبل.

الأبعاد الأخلاقية وسيناريوهات المستقبل

وفي سياق المخاوف، تطرح الأبعاد الأخلاقية لمسألة الذكاء الخارق، لأنه قد يتحول إلى صناديق سوداء يجهل البشر ما يجري بداخلها، فثورة الإنترنت التي غيرت مفهوم الزمان والمكان، لم تسلب الإنسان عقله ولم تغير دوره كفاعل معرفي، أما الذكاء الاصطناعي فإنه بهذه الفرضيات والتنبؤات يتجه إلى أن يحل محل العقل.

وفي هذا السياق الذي يشكل مخاطر وقيودا على عقل الإنسان، بدأت الأمم المتحدة في مناقشة إمكانية صياغة "معاهدة للذكاء الاصطناعي" شبيهة بمعاهدة حظر انتشار الأسلحة النووية على أساس أن المخاطر لا تقتصر على دولة أو شركة واحدة بل تمس الإنسانية كلها.

وحول المستقبل، هنالك احتمالات أهمها:

السيناريو التفاؤلي: الذي يقول إن الذكاء الاصطناعي سيكون شريكا حقيقيا وليس مجرد أداة مساعدة.

أما السيناريو التشاؤمي: فيرى أنه سيفوق الإنسان وينافسه في سوق العمل ويقضي على ملايين الوظائف.

وتفرض الثورة الحالية على البشرية أن تكون أكثر جرأة في التفكير لمواجهة الذكاء الاصطناعي، لأن التجارب التاريخية تقول إن التحولات الكبرى لا تنتظر البشر حتى يستعدوا لها.

مقالات مشابهة

  • «الاتحادية للضرائب» تكشف عن مُبادراتها في مجالي الذكاء الاصطناعي والتحول الرقمي
  • الذكاء الاصطناعي سرّع تفشّيها.. كيف تميّز بين الحقائق والمعلومات المضللة؟
  • كيف يغري الذكاء الاصطناعي المستخدمين بالانتحار؟ دراسة تكشف ثغرات خطيرة
  • جوجل تعيد ابتكار البحث بالصور عبر الذكاء الاصطناعي
  • د. هبة عيد تكتب: المزحة التي خرجت عن السيطرة.. عندما يتحول الذكاء الاصطناعي إلى فوضى رقمية
  • هل اقتربنا من سيناريوهات انفجار الذكاء الاصطناعي؟
  • الكلاب تصاب بإدمان اللعب... دراسة تكشف تشابهها مع البشر
  • فردوس عبد الحميد تكشف سر عدم تعاونها مع يوسف شاهين.. فيديو
  • حين يتحوّل الزميل الرقمي إلى منافس.. هل دخلنا عصر استبدال البشر بالذكاء الاصطناعي؟
  • أنجلينا جولي تكشف صعوبة طلاقها من براد بيت