مساعد الذكاء الاصطناعي بواتساب يسرب رقم هاتف أحد المستخدمين
تاريخ النشر: 22nd, June 2025 GMT
في حادثة غريبة من نوعها، قام مساعد الذكاء الاصطناعي الموجود في منصة "واتساب" بتوليد رقم الهاتف الخاص بأحد المستخدمين على أنه رقم خدمة العملاء الخاص بشركة " ترانس بينين إكسبريس" (TransPennine Express) بالمملكة المتحدة، وذلك بحسب تقرير "ذا غارديان".
كان باري سميثورست ينتظر القطار السريع المتجه إلى مدينة مانشستر بيكاديللي، وعندما تأخر القطار طلب من مساعد الذكاء الاصطناعي الموجود في "واتساب" الذي يعتمد على نماذج "لاما" (LLMA) من "ميتا" تزويده برقم الهاتف الخاص بخدمة عملاء الشركة للتواصل معهم، جاء الرد مع رقم هاتف مستخدم آخر وهو جيمس غراي دون وجود ما يربط بينه وبين خدمة عملاء الشركة أو سميثورست، سواءً كان في الموقع الجغرافي أو البيانات أو حتى تقاطع الدوائر الاجتماعية والوظائف بينهما.
وعندما واجه سميثورست مساعد الذكاء الاصطناعي في "واتساب" بأن الرقم خطأ ويعود لمستخدم آخر، ما كان منه إلا الاعتذار والتأكيد أن هذا الرقم مولد بشكل عشوائي ولا يعود إلى أي قاعدة بيانات، رغم إشارته إلى استخدام قاعدة بيانات عشوائية.
وعن هذا الأمر قال مايك ستانوب، المدير الإداري لشركة "كاروثرز وجاكسون للاستشارات الإستراتيجية في مجال البيانات" (Carruthers and Jackson) أثناء حديثه مع "ذا غارديان": "هذا مثال رائع على فشل الذكاء الاصطناعي. إذا كان مهندسو ميتا يصممون أساليب "الكذب الأبيض" في أنظمة الذكاء الاصطناعي الخاصة بهم، فإنهم يجب أن يعلموا الجمهور".
ومن جانبها قالت "ميتا" على لسان المتحدث الرسمي إن رقم الهاتف المذكور متاح بشكل عام عبر الإنترنت ويتشارك بعض الأرقام مع رقم هاتف خدمة العملاء الخاص بشركة "ترانس بينين إكسبريس"، مؤكدا أن النموذج تدرب على قواعد البيانات الخاصة بالشركة وهي لا تضم أرقام هواتف المستخدمين، بحسب ما جاء في تقرير "ذا غارديان".
إعلانويمثل هذا الموقف الأحدث في سلسلة من هلوسات الذكاء الاصطناعي من عدة شركات ونماذج مختلفة، بما فيها "شات جي بي تي" الذي أكد أن رجلا قتل أبناءه ومازال يقضي عقوبته في السجن رغم أن الحقيقة عكس ذلك.
المصدر: الجزيرة
كلمات دلالية: حريات مساعد الذکاء الاصطناعی
إقرأ أيضاً:
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسي
مع التوسع المتزايد في استخدام تقنيات الذكاء الاصطناعي في شتى المجالات، بدأ البعض يلجأ لهذه الأدوات كمساعدات نفسية، أو حتى كبدائل عن الأطباء المختصين إلا أن خبراء الصحة النفسية يحذرون من هذه الممارسات، ويؤكدون أنها قد تحمل عواقب خطيرة على الصحة النفسية والخصوصية الشخصية.
خبراء يحذرون: الذكاء الاصطناعي ليس بديلًا آمنا للعلاج النفسيوفي هذا السياق، صرحت الدكتورة يكاتيرينا أورلوفا، نائبة مدير معهد علم النفس السريري والعمل الاجتماعي بجامعة بيروغوفسكي الروسية، لصحيفة "غازيتا.رو"، بمجموعة من التحذيرات الهامة.
قالت أورلوفا إن "الذكاء الاصطناعي لا يمكنه تقديم دعم نفسي مؤهل، لأنه يفتقر إلى التعاطف الحقيقي، وغير قادر على التقاط الإشارات غير اللفظية الدقيقة التي تحمل في طياتها معانٍ نفسية عميقة".
وأشارت إلى خطورة أن يفشل النظام في لحظات حرجة من اليأس أو الاضطراب النفسي، وربما يقدّم نصائح غير ملائمة أو حتى مؤذية.
خطر على خصوصية المرضىأحد أكبر التحديات في الاعتماد على الذكاء الاصطناعي في العلاج النفسي هو الخصوصية وأوضحت أورلوفا: المشاعر والمخاوف التي يبوح بها المستخدم للذكاء الاصطناعي يمكن أن تُستخدم بشكل ضار إذا وقعت في أيدي جهات غير نزيهة، خاصة أن إعادة التعرف على هوية الأشخاص من بيانات مجهولة أصبح أمرًا ممكنًا في بعض الحالات.
وشدّدت الخبيرة على أن خوارزميات الذكاء الاصطناعي ليست محايدة، فهي تتعلم من بيانات أنشأها بشر يحملون تحيّزاتهم، مما يجعل الذكاء الاصطناعي عرضة لإعادة إنتاج الصور النمطية أو التمييز ضد فئات معينة من المرضى النفسيين.
أشارت أورلوفا إلى أن الخطر الأكبر يتمثل في خلق وهم لدى الناس بأن الذكاء الاصطناعي يمكنه أن يحل محل الطبيب النفسي، ما قد يؤدي إلى تأجيل طلب المساعدة الحقيقية حتى في الحالات الحرجة.
في الختام، رغم أن الذكاء الاصطناعي يمكن أن يكون أداة مساعدة في جمع البيانات أو تقديم دعم أولي، فإنه لا يجب اعتباره بديلًا للعلاج النفسي الحقيقي الذي يقدمه مختصون قادرون على التفاعل الإنساني والتعاطف وفهم السياق العاطفي بدقة.