فى عالم سريع التطور، أصبحت تطبيقات الذكاء الاصطناعى (AI) تمثل جزءًا أساسيًا من روتين حياتنا اليومى، ويعد «شات جى بى تى» (CHATGPT) واحدًا من أبرز هذه التطبيقات وأهمها، والذى طورته شركة OPENAI بمدينة سان فرانسيسكو، وهو عبارة عن روبوت أو برنامج يعمل باستخدام الذكاء الاصطناعى، إذ يتحاور مع المستخدم ويجيب عم ما يطرح عليه من أسئلة بشكل مفصل، ويتذكر كل ما طرح عليه من قبل من أسئلة خلال الحوار الذى يتم، وكأنه حوار دائر بين شخصين.
ويعتمد GPT على تعلم الآلة لفهم النصوص وتوليدها بشكل طبيعى باستخدام الشبكات العصبية العميقة (DEEP NEURAL NETWORKS)، حيث يتم تدريبه على مجموعة ضخمة من النصوص التى تشمل مقالات، وكتبا، ومواقع إنترنت، ومواد تعليمية؛ هذا التدريب يتيح له القدرة على فهم العلاقات بين الكلمات والجمل، مما يعزز من قدرته على توليد ردود معقولة ومناسبة للسياق، وتوليد مخرجات متوقعة بناءً على الإدخال الذى يتلقاه.
ويُعد GPT من بين أحدث التقنيات وأكثرها فاعلية فى مجال معالجة اللغة الطبيعية، حيث يمكن استخدامه فى مجموعة متنوعة من التطبيقات مثل كتابة المقالات، والدردشات الآلية، والترجمة، فضلًا عن استخدامه لتقديم المساعدات للطلاب والباحثين فى إنجاز التكليفات والأبحاث المطلوبة منهم فى إطار الدراسة والبحث العلمى.
وتتمثل إحدى أكبر مزايا GPT فى قدرته على المعالجة المتقدمة للغة الطبيعية (NATURAL LANGUAGE PROCESSING–NLP)، مما يسمح له بفهم النصوص البشرية، والرد عليها بشكل يبدو بشريًا، كما يسهم فى تحسين الإنتاجية من خلال توفير الوقت، ويساعد فى توليد أفكار إبداعية للمشاريع أو الكتابات، فضلا عن إدارة الوقت والتنظيم، وتحديد الأولويات، والتذكير بالمواعيد، كما يمكنه المساعدة فى اتخاذ القرارات عبر تحليل البيانات والمعلومات، وقد وصل الأمر إلى قيام أحد الأصدقاء بالاستعانة بـGPT لمساعدته فى تنسيق ألوان ملابسه، واختيار بطيخة «حمرا ومعسلة».. على حد قوله.
إلا أن كل هذه المزايا لا تزال محفوفة بكثير من المخاوف، منها ما هو متعلق بالخصوصية والأمان المرتبط بجمع البيانات الشخصية، ومنها ما يتعلق بالتأثير على التفكير النقدى، فقد يؤدى الاعتماد الكبير على GPT فى حل المشاكل أو توليد الأفكار إلى تقليل مهارات التفكير النقدى والتحليلى لدى الأفراد، فضلا عن المخاوف المتعلقة بإحلال الذكاء الاصطناعى محل البشر فى عديد من المجالات، مثل: الترجمة وخدمة العملاء والكتابة الصحفية والبحث العلمى.
وفى النهاية، يظل «شات جى بى تى» (CHATGPT) وسيلة قد يستخدمها البعض بشكل إيجابى مفيد، ويستخدمها البعض الآخر بشكل سلبى ضار، فالأمر لا يتعلق بمدى توافر التقنية بقدر ما يتعلق بالحذر فى استخدامها؛ فمن المهم أن تتأكد من أن البيانات الشخصية التى تقدمها محمية بأعلى معايير الأمان، والتحقق من دقة المعلومات التى يقدمها، خصوصًا فى الأمور المهمة أو المعقدة، والتأكد من أن التفاعل معه يتم ضمن حدود الآداب والقيم الإنسانية، وقبل كل ذلك تجنب الاعتماد الكلى على CHATGPT والاستمرار فى تطوير مهارات التفكير النقدى والإبداع.
أستاذ الإعلام المساعد بكلية الآداب - جامعة المنصورة
[email protected]
المصدر: بوابة الوفد
كلمات دلالية: جامعة المنصورة د أحمد عثمان
إقرأ أيضاً:
OpenAI تكشف استخدام ChatGPT في تطوير أداة تجسس صينية على وسائل التواصل
في خطوة جديدة تسلط الضوء على تصاعد القلق العالمي من إساءة استخدام الذكاء الاصطناعي، كشفت شركة OpenAI عن حظر حساب صيني استخدم منصة ChatGPT لتصميم مواد ترويجية وخطط مشاريع لأداة مراقبة موجهة نحو شبكات التواصل الاجتماعي، يُعتقد أنها طُورت لصالح جهة حكومية.
وتأتي هذه الخطوة ضمن جهود الشركة المستمرة لرصد الأنشطة التي تُخالف سياساتها وتستغل نماذجها في أغراض أمنية أو سياسية.
وأوضحت OpenAI أن الحساب المحظور كان يعمل على تطوير ما وصفته الشركة بأنه "مسبار رقمي" قادر على تتبع منصات مثل X (تويتر سابقًا) وفيسبوك وإنستغرام وريديت وتيك توك ويوتيوب، بهدف جمع وتحليل محتوى يحمل طابعًا سياسيًا أو دينيًا أو عرقيًا.
ووفقًا للتفاصيل التي نشرتها الشركة، كانت الأداة قادرة على تحديد الموضوعات الحساسة ومتابعة كيفية تداولها عبر الإنترنت، مما يجعلها وسيلة محتملة للتجسس الرقمي أو مراقبة الرأي العام.
وأضافت OpenAI أنها لا تملك أدلة قاطعة تؤكد أن المشروع كان يُدار مباشرة من قبل جهة حكومية صينية، لكنها أشارت إلى أن الحساب المرتبط به استخدم ChatGPT بشكل مكثف في إعداد الوثائق والخطط الخاصة بالأداة. وأكدت الشركة أنها أوقفت المشروع فور اكتشافه، مشيرة إلى أن هذه ليست المرة الأولى التي تُعطل فيها محاولات مشابهة، إذ سبق أن رصدت أنشطة مماثلة في وقت سابق من العام الجاري.
كما كشفت OpenAI في تقريرها الأخير أنها حظرت حسابًا آخر استخدم ChatGPT لتصميم مقترح يُروّج لما سُمي "نظام تحذير من تدفقات عالية الخطورة مرتبطة بالأويغور"، وهو ما اعتبرته الشركة محاولة غير مشروعة لتطوير أداة يمكن أن تُستخدم في تتبع تحركات أفراد أو مجموعات تنتمي إلى أقلية الأويجور المسلمة في الصين.
وتُتهم الحكومة الصينية منذ سنوات بانتهاكات واسعة لحقوق الإنسان ضد هذه الأقلية، الأمر الذي يجعل هذه الأنشطة محلّ تدقيق دولي متزايد.
ويأتي هذا الإعلان ضمن سلسلة من تقارير التهديدات التي بدأت OpenAI بنشرها منذ فبراير 2024، بهدف رفع مستوى الوعي العالمي حول الجهات التي تستغل النماذج اللغوية الضخمة في أنشطة ضارة، سواء كانت مرتبطة بدول أو منظمات أو شبكات احتيالية. وتستعرض الشركة في هذه التقارير أحدث محاولات الاختراق والاستخدامات غير القانونية لمنتجاتها مثل ChatGPT، مع تفصيل الإجراءات التي اتخذتها لتعطيلها.
وأشارت الشركة في أحدث تقرير لها إلى أنها رصدت مطورين يتحدثون الروسية والكورية والصينية يستخدمون ChatGPT لتحسين برمجيات خبيثة وتطوير أدوات اختراق أكثر تطورًا. كما اكتشفت شبكات في كمبوديا وميانمار ونيجيريا تستخدم أدوات الذكاء الاصطناعي لإدارة عمليات احتيال رقمية، بما في ذلك إنشاء رسائل تصيد إلكتروني مُقنعة تهدف إلى خداع المستخدمين وسرقة بياناتهم.
ورغم هذه التحديات، أوضحت OpenAI أن منصتها تُستخدم في مكافحة الاحتيال أكثر مما تُستخدم في إنشائه، مشيرة إلى أن معدلات الاستخدام الأخلاقي والإيجابي تفوق المحاولات الضارة بثلاثة أضعاف تقريبًا. وتؤكد الشركة أن هذا التوازن يعكس التزامها بتطوير أدوات ذكاء اصطناعي آمنة، ومواصلة تحديث سياساتها الرقابية لمنع أي إساءة استخدام.
وخلال صيف 2025، كانت OpenAI قد عطلت عمليات في إيران وروسيا والصين استغلت ChatGPT في إنشاء محتوى تضليلي عبر الإنترنت، مثل كتابة منشورات وتعليقات تهدف إلى زيادة الاستقطاب بين المستخدمين والتأثير على النقاشات العامة. وقد تم توزيع هذا المحتوى المُولّد بالذكاء الاصطناعي على منصات متعددة داخل هذه الدول وخارجها، في محاولات منظمة للتأثير على الرأي العام.
وتؤكد الشركة الأمريكية أن مكافحة هذا النوع من الأنشطة تتطلب تعاونًا دوليًا واسعًا، إذ لا يمكن لأي جهة واحدة التصدي لجميع أشكال إساءة استخدام الذكاء الاصطناعي. كما شددت على أنها تعمل باستمرار على تطوير أدوات كشف متقدمة، إلى جانب التعاون مع حكومات ومؤسسات تقنية لتعزيز الشفافية والمساءلة في هذا المجال.
في المقابل، يرى خبراء الأمن السيبراني أن إعلان OpenAI الأخير يعكس بداية مرحلة جديدة من المواجهة بين مطوري الذكاء الاصطناعي والجهات التي تسعى لاستغلال هذه التكنولوجيا لأغراض رقابية أو سياسية. فبينما يفتح الذكاء الاصطناعي آفاقًا غير محدودة للابتكار، فإنه في الوقت نفسه يخلق تحديات أخلاقية وأمنية غير مسبوقة، تتطلب يقظة دائمة وضوابط صارمة على مستوى العالم.