البشر يتبنون لغة الذكاء الاصطناعي دون أن يشعروا
تاريخ النشر: 26th, July 2025 GMT
في ظاهرة تبدو كأنها خرجت من قصص الخيال العلمي، كشفت دراسة حديثة أن البشر بدؤوا بالفعل تبني أسلوب لغوي يشبه إلى حد كبير أسلوب الذكاء الاصطناعي التوليدي مثل تشات جي بي تي.
هذا التحول الصامت، الذي رصده باحثون في معهد "ماكس بلانك لتنمية الإنسان" في برلين، لم يقتصر على المفردات فحسب، بل امتد إلى بنية الجمل والنبرة العامة للحديث، مما يثير تساؤلات عميقة حول مستقبل اللغة والتنوع الثقافي في عصر هيمنة الآلة ومنطقها في التفكير.
اعتمدت الدراسة، التي لم تنشر بعد في مجلة علمية وتتوفر حاليا كنسخة أولية على منصة (arXiv)، على تحليل دقيق لمجموعة ضخمة من البيانات اللغوية، شملت ما يقرب من 360 ألف مقطع فيديو من منصة يوتيوب الأكاديمية و771 ألف حلقة بودكاست. وقام الباحثون بمقارنة اللغة المستخدمة في الفترة التي سبقت إطلاق" تشات جي بي تي" في أواخر عام 2022 وما بعدها، وكانت النتائج لافتة.
لاحظ الفريق البحثي زيادة حادة في استخدام ما أطلقوا عليه "كلمات جي بي تي"، وهي مفردات يفضلها النموذج اللغوي، مثل "delve" (يتعمق)، "meticulous" (دقيق)، "realm" (عالم/مجال)، "boast" (يتباهى/يتميز)، و"comprehend" (يستوعب). هذه الكلمات، التي كانت نادرة نسبيا في الحوار اليومي العفوي، شهدت طفرة في الاستخدام. على سبيل المثال، ارتفع استخدام كلمة "delve" وحدها بنسبة 48% بعد ظهور تشات جي بي تي.
وللتأكد من هذه "البصمة اللغوية"، قام الباحثون باستخلاص المفردات التي يفضلها النموذج عبر جعله يعيد صياغة ملايين النصوص المتنوعة. ووجدوا أن استخدام هذه الكلمات في كلام البشر المنطوق ارتفع بنسبة قد تصل إلى أكثر من 50%، مما يؤكد أن التأثير لم يقتصر على النصوص المكتوبة، بل امتد إلى المحادثات اليومية.
تغير في الأسلوب والنبرةالمفاجأة الكبرى في الدراسة لم تكن في المفردات فحسب، بل في النبرة الأسلوبية العامة. لاحظ الباحثون أن المتحدثين بدؤوا يتبنون أسلوبا أكثر رسمية وتنظيما، وجملا أطول، وتسلسلا منطقيا يشبه إلى حد كبير المخرجات المنظمة للذكاء الاصطناعي، بعيدا عن الانفعالات العفوية والخصوصية اللغوية. هذه الظاهرة تعني أننا نشهد مرحلة غير مسبوقة: البشر يقلدون الآلات بطريقة واضحة.
إعلانيصف الباحثون ما يحدث بأنه "حلقة تغذية ثقافية مغلقة" (closed cultural feedback loop)؛ فاللغة التي نعلمها للآلة تتحول، بشكل غير واع، إلى اللغة التي نعيد نحن إنتاجها.
يقول ليفين برينكمان، أحد المشاركين في الدراسة: "من الطبيعي أن يقلد البشر بعضهم بعضا، لكننا الآن نقلد الآلات"، في مشهد يؤكد تحول الذكاء الاصطناعي إلى مرجعية ثقافية قادرة على التأثير في الواقع البشري.
تآكل التنوع اللغويرغم الطابع الطريف الذي قد تبدو عليه هذه الظاهرة، فإن الدراسة تحمل في طياتها تحذيرا جادا حول مستقبل التنوع الثقافي واللغوي. يلفت الباحثون الانتباه إلى أن اعتمادنا المفرط على أسلوب لغوي موحد، حتى لو بدا أنيقا ومنظما، قد يؤدي إلى تآكل الأصالة والتلقائية والخصوصية التي تميز التواصل الإنساني الحقيقي.
وفي هذا السياق، يحذر مور نعمان، الأستاذ في معهد "كورنيل تك"، من أن اللغة عندما تكتسب طابع الذكاء الاصطناعي قد تفقد الآخرين ثقتهم في تواصلنا، لأنهم قد يشعرون بأننا نسعى لتقليد الآلة أكثر من التعبير عن ذواتنا الحقيقية.
تشير الدراسة إلى أن ما بدأ كأداة للمساعدة في الكتابة والبحث قد تحول إلى ظاهرة ثقافية واجتماعية مرشحة للتوسع. فإذا كان الإنترنت قد أدخل على لغتنا اختصارات تقنية مثل "LOL"، فإن ما يحدث اليوم هو انعكاس مباشر لعلاقة أعمق وأكثر تعقيدا بين الإنسان والذكاء الاصطناعي.
وتؤكد هذه النتائج أن اللغة ليست مجرد كلمات، بل هي مرآة للسلطة الثقافية ومنبع للهوية. ومع تحول الذكاء الاصطناعي إلى جزء من هذه السلطة، فإن تبنينا لأسلوبه قد يعني أننا، وبشكل غير محسوس، نفقد جزءا من شخصيتنا وهويتنا اللغوية الفريدة في ساحة معركة هادئة تكتب فيها فصول جديدة من تاريخ التواصل البشري.
المصدر: الجزيرة
كلمات دلالية: حريات دراسات اجتماعي الذکاء الاصطناعی جی بی تی
إقرأ أيضاً:
الذكاء الاصطناعي يساعد الأطباء في تحليل الصور الطبية
برز الذكاء الاصطناعي، منذ ظهوره، كأداة فعّالة لتحليل الصور الطبية. وبفضل التطورات في مجال الحوسبة ومجموعات البيانات الطبية الضخمة التي يُمكن للذكاء الاصطناعي التعلّم منها، فقد أثبت جدواه في قراءة وتحليل الأنماط في صور الأشعة السينية، والتصوير بالرنين المغناطيسي، والتصوير المقطعي المحوسب، مما يُمكّن الأطباء من اتخاذ قرارات أفضل وأسرع، لا سيما في علاج وتشخيص الأمراض الخطيرة كالسرطان. في بعض الحالات، تُقدّم أدوات الذكاء الاصطناعي هذه مزايا تفوق حتى نظيراتها البشرية.
يقول أونور أسان، الأستاذ المشارك في معهد ستيفنز للتكنولوجيا في الولايات المتحدة، والذي يركز بحثه على التفاعل بين الإنسان والحاسوب في الرعاية الصحية "تستطيع أنظمة الذكاء الاصطناعي معالجة آلاف الصور بسرعة وتقديم تنبؤات أسرع بكثير من المُراجعين البشريين. وعلى عكس البشر، لا يتعب الذكاء الاصطناعي ولا يفقد تركيزه بمرور الوقت".
مع ذلك، ينظر العديد من الأطباء إلى الذكاء الاصطناعي بشيء من عدم الثقة، ويرجع ذلك في الغالب إلى عدم معرفتهم بكيفية وصوله إلى قراراته، وهي مشكلة تُعرف باسم "مشكلة الصندوق الأسود".
يقول أسان "عندما لا يعرف الأطباء كيف تُولّد أنظمة الذكاء الاصطناعي تنبؤاتها، تقلّ ثقتهم بها. لذا، أردنا معرفة ما إذا كان تقديم شروحات إضافية يُفيد الأطباء، وكيف تؤثر درجات التفسير المختلفة للذكاء الاصطناعي على دقة التشخيص، وكذلك على الثقة في النظام".
بالتعاون مع طالبة الدكتوراه أوليا رضائيان والأستاذ المساعد ألب أرسلان إمراه بايراك في جامعة ليهاي في ولاية بنسيلفانيا الأميركية، أجرى أسان دراسة شملت 28 طبيبًا متخصصًا في الأورام والأشعة، استخدموا الذكاء الاصطناعي لتحليل صور سرطان الثدي. كما زُوّد الأطباء بمستويات مختلفة من الشروح لتقييمات أداة الذكاء الاصطناعي. في النهاية، أجاب المشاركون على سلسلة من الأسئلة المصممة لقياس ثقتهم في التقييم الذي يُولّده الذكاء الاصطناعي ومدى صعوبة المهمة.
وجد الفريق أن الذكاء الاصطناعي حسّن دقة التشخيص لدى الأطباء مقارنةً بالمجموعة الضابطة، ولكن كانت هناك بعض الملاحظات المهمة.
اقرأ أيضا... مؤسسات تستخدم الذكاء الاصطناعي لأعمال معقدة ومتعددة الخطوات
كشفت الدراسة أن تقديم شروحات أكثر تفصيلًا لا يُؤدي بالضرورة إلى زيادة الثقة.
أخبار ذات صلةيقول أسان "وجدنا أن زيادة التفسير لا تعني بالضرورة زيادة الثقة". ذلك لأن وضع تفسيرات إضافية أو أكثر تعقيدًا يتطلب من الأطباء معالجة معلومات إضافية، مما يستنزف وقتهم وتركيزهم بعيدًا عن تحليل الصور. وعندما تكون التفسيرات أكثر تفصيلًا، يستغرق الأطباء وقتًا أطول لاتخاذ القرارات، مما يقلل من أدائهم العام.
يوضح أسان "معالجة المزيد من المعلومات تزيد من العبء المعرفي على الأطباء، وتزيد أيضًا من احتمال ارتكابهم للأخطاء، وربما إلحاق الضرر بالمريض. لا نريد زيادة العبء المعرفي على المستخدمين بإضافة المزيد من المهام".
كما وجدت أبحاث أسان أنه في بعض الحالات، يثق الأطباء بالذكاء الاصطناعي ثقةً مفرطة، مما قد يؤدي إلى إغفال معلومات حيوية في الصور، وبالتالي إلحاق الضرر بالمريض.
ويضيف أسان "إذا لم يُصمم نظام الذكاء الاصطناعي جيدًا، وارتكب بعض الأخطاء بينما يثق به المستخدمون ثقةً كبيرة، فقد يطور بعض الأطباء ثقةً عمياء، معتقدين أن كل ما يقترحه الذكاء الاصطناعي صحيح، ولا يدققون في النتائج بما فيه الكفاية".
قدّم الفريق نتائجه في دراستين حديثتين: الأولى بعنوان "تأثير تفسيرات الذكاء الاصطناعي على ثقة الأطباء ودقة التشخيص في سرطان الثدي"، والثانية بعنوان "قابلية التفسير وثقة الذكاء الاصطناعي في أنظمة دعم القرار السريري: تأثيراتها على الثقة والأداء التشخيصي والعبء المعرفي في رعاية سرطان الثدي".
يعتقد أسان أن الذكاء الاصطناعي سيظل مساعدًا قيّمًا للأطباء في تفسير الصور الطبية، ولكن يجب تصميم هذه الأنظمة بعناية.
ويقول "تشير نتائجنا إلى ضرورة توخي المصممين الحذر عند دمج التفسيرات في أنظمة الذكاء الاصطناعي"، حتى لا يصبح استخدامها معقدا. ويضيف أن التدريب المناسب سيكون ضروريًا للمستخدمين، إذ ستظل الرقابة البشرية لازمة.
وأكد "ينبغي أن يتلقى الأطباء، الذين يستخدمون الذكاء الاصطناعي، تدريبًا يركز على تفسير مخرجات الذكاء الاصطناعي وليس مجرد الوثوق بها".
ويشير أسان إلى أنه في نهاية المطاف، يجب تحقيق توازن جيد بين سهولة استخدام أنظمة الذكاء الاصطناعي وفائدتها.
ويؤكد الباحث "يُشير البحث إلى وجود معيارين أساسيين لاستخدام أي شكل من أشكال التكنولوجيا، وهما: الفائدة المتوقعة وسهولة الاستخدام المتوقعة. فإذا اعتقد الأطباء أن هذه الأداة مفيدة في أداء عملهم، وسهلة الاستخدام، فسوف يستخدمونها".
مصطفى أوفى (أبوظبي)