الذكاء الاصطناعي قد يكشف كلمات السر لديك.. كيف؟
تاريخ النشر: 10th, August 2023 GMT
إلى أيّ حد يمكن للذكاء الاصطناعي أن يصل؟ - أرشيف
خطر الذكاء الاصطناعي يمكن أن يمتد إلى كلمات المرور، إذ يمكنه معرفة كلمة السر بناء على النقرات على لوحة المفاتيح إذا ما تم التنصت على صوت النقر، خصوصاً عندما يحدث ذلك أثناء المحادثات بالفيديو أو المحادثات الصوتية التي يقوم بها المستخدم من حاسوبه.
هذا الخطر أشارت إليه دراسة أنجزها باحثون من جامعة سري جنوب لندن، نقلت مضامينها صحيفة الغارديان، إذ يذكر الباحثون أن الاستخدام المستمر للصوت في برامج الدردشة كمنصة زووم زاد من خطر الهجمات الإلكترونية.
قرع مجموعة من الخبراء في دراسة لهم ناقوس الخطر من "الأشباح الآلية" لإعادة تكوين شكل الموتى أو صوتهم عبر تطبيقات الذكاء الاصطناعي، لكي لا يتعرض أقاربهم للابتزاز من الآخرين مستقبلاً.
الذكاء الاصطناعي.. ساحة معركة بين عمالقة الإنترنت و"الهاكرز"يمكن الذكاء الاصطناعي التوليدي في مجالات كثيرة ومن ذلك القرصنة أو الحماية! لذلك تبحث شركات التكنولوجيا والقراصنة استخدامه بشكل كبير. فمن سيبربح المعركة؟
الغرب يعمل على "مدونة سلوك" مشتركة للذكاء الاصطناعيمع تصاعد القلق من التطور السريع للذكاء الاصطناعي، أعلن الاتحاد الأوروبي والولايات المتحدة مشروع "مدونة سلوك" تكون متاحة لشركات هذا القطاع للتطبيق الطوعي، لمواجهة مخاطر فرض الصين نهجها في تنظيم هذا القطاع.
ولأجل الاستدلال على الخطر، ذكر الباحثون المشاركون في الدراسة أنهم أنشأوا نظاماً يمكنه تحديد المفاتيح التي يتم النقر عليها على الحاسوب، بناءً على التسجيلات الصوتية فقط، وبلغت الدقة حوالي 93 بالمئة عبر زووم. ويمكن تحسين الدقة مستقبلاً، ما يعني أن الخطر أكبر.
وألقى الباحثون الضوء على أن استخدام الصوت بشكل مكثف في الأجهزة الإلكترونية يعطي منافذ للقرصنة، ويؤكد ضرورة حكامة أفضل للذكاء الاصطناعي الذي يمكنه الوصول إلى المزيد.
واستخدم الباحثون جهاز ماك بوك برو ( MacBook Pro)، ونقروا على 36 مفتاحا بما في ذلك جميع الأحرف والأرقام، 25 مرة على التوالي، باستخدام أصابع مختلفة وبضغط متفاوت، وسجلوا الصوت عبر برنامج زووم، على المسجل الخاص بهاتف ذكي قريب من لوحة المفاتيح.
ووضع الباحثون البيانات على نظام تعلم آلي يعمل بالذكاء الاصطناعي، الذي استطاع مع الوقت تمييز الصوت الخاص بكل مفتاح. ويفترض الباحثون أن يكون العامل في التعرف عليها هو قرب هذه المفاتيح من حافة الحاسوب.
وتُلقي الدراسة الضوء على أن أجهزة التنصت يمكنها أن تدرك كلمات السر، لذلك بات الآن ضروريا عدم تشغيل الصوت أثناء كتابة كلمات السر، او استخدام مفتاح Shift لإنشاء مزيج من الأحرف الكبيرة والصغيرة ، أو الأرقام والرموز، مع ضرورة تفعيل أنظمة التحقق عبر خطوتين.
إ.ع/ أ.ح
المصدر: DW عربية
كلمات دلالية: الذكاء الاصطناعي الذكاء الاصطناعي مخاطر مخاطر الذكاء الاصطناعي خطر الذكاء الاصطناعي برامج الذكاء الاصطناعي الذكاء الاصطناعي التوليدي مستقبل الذكاء الاصطناعي الذكاء الاصطناعي الذكاء الاصطناعي مخاطر مخاطر الذكاء الاصطناعي خطر الذكاء الاصطناعي برامج الذكاء الاصطناعي الذكاء الاصطناعي التوليدي مستقبل الذكاء الاصطناعي للذکاء الاصطناعی الذکاء الاصطناعی
إقرأ أيضاً:
هل عبرنا الوادي الغريب ؟ الذكاء الاصطناعي يحاكينا صوتا وصورة
قبل سنوات قليلة كنت أطالع أخبار هزيمة أدوات جوجل الذكية لبطل لعبة جو (go) الذي توّج بثماني عشرة ميدالية عالمية من قبل، كان ذلك بالتحديد في 15 مارس من عام 2016، هذه اللعبة التي تتطلب الكثير من التحليل والتخطيط والسرعة أتقنتها حواسيب «ألفا جو»(AlphaGo) المطورة مما يسمى «العقل العميق لجوجل» (Google DeepMind)، ويومئذ أُعتبر ذلك بمثابة إعلان مرحلة جديدة لأدوات الذكاء الاصطناعي الخاصة بجوجل وفتحت الباب أمام تصورات لم تكن تخطر على بال كثيرين عن قدرات الآلة المستقبلية في مجالات ظلت حكرا على العقل البشري وربما ظننا أنها ستبقى كذلك.
صحيح أن تفوق الكمبيوتر على غاري كاسباروف في عام 1997 يُعد نقطة فارقة في تاريخ الذكاء الاصطناعي، إلا أن تفوقه في لعبة جو عُد استثنائيا؛ لأنه لم يكشف عن قدرة الكمبيوتر على إجراء الحسابات المعقدة فحسب (وهو ما نعرف أنه قادر على فعله بمهارة حتى مع لعبة أعقد يصل عدد الحركات الأولى الممكنة فيها إلى 360 مقابل 20 للشطرنج) بل وأن يأتي بحركات تعد «غير تقليدية». أي أنها ابتكرت استراتيجيات جديدة تمامًا، لم تكتسبها من خلال تقليد أو ملاحظة أداء البشر في اللعبة.
شكّلت هزيمة كاسباروف نقطة تحوّل دفعت كبرى شركات الذكاء الاصطناعي إلى دخول سباق لإثبات تفوقها عبر تفوق آلاتها على الإنسان، ليس في الشطرنج وحدها، بل في ألعاب أكثر تعقيدا. وهذه المرة بأسلوب مغاير لتقنيات IBM التي طورت ديب بلو (Deep Blue). ففي حين أن ديب بلو استند إلى الذكاء الاصطناعي الرمزي، اعتمدت ديب مايند DeepMind على تقنيات التعلم الآلي والشبكات العصبية الاصطناعية. ويمكننا فهم الفرق بين الخوارزميتين بالنظر إلى الذكاء الاصطناعي الرمزي على أنه يشبه البرمجة التقليدية التي تعتمد على سلسلة من الشروط (مثلا: إذا حدث كذا، فافعل كذا)، معززة بقدرات حسابية ضخمة وخوارزميات بحث متقدمة. أما أنظمة التعلم الآلي، فهي تُبرمَج عبر التعلم، فتتعلم من البيانات (مثل دراستها لمباريات جو سابقة كي تُتقن اللعبة)، دون أن تُمد بالتعليمات على نحو صريح.
نفس هذه التقنيات والأدوات من جوجل «وعقلها العميق» تسارعت خطى تطورها، مع اهتمام العالم بشكل مركز على هذه التقنيات، إلى أن أعلنت جوجل مؤخرا عن أحدث أداوتها، ومنها أداة «في أو 3» المتخصصة في إنتاج مقاطع ڤيديو، سيناريو وصوت وصورة وتمثيل وإخراج، وموسيقا وضوضاء، مع تحريك للشفاه وتعابير في الوجوه بشكل واقعي إلى حد بعيد جدا، وقد تصدرت المشهد التقني لهذا السبب. هذه الأداة مختلفة عن نظيراتها لأنها قفزت قفزات نحو الواقعية، وكما يقول الخبراء أنها أخيرا غادرت «الوادي الغريب (Uncanny valley)»، في إشارة إلى أنها بعد هذه المرحلة لم تعد غريبة وغير مألوفة بالنسبة لمعظم البشر، والوصول لهذه المرحلة يعني تقدما حاسما وغير مسبوق، الواقعية هذه لم تعد تقتصر على الشكل الظاهري فحسب، بل امتدت إلى محاكاة ديناميكيات الحركة وتفاعلات الضوء والظل وانسجام العناصر المرئية والصوتية في تناغم مدهش، يجعل الفارق بين ما هو مصنوع بالذكاء الاصطناعي وما هو حقيقي يتضاءل يوما بعد يوم. الوادي الغريب هي فرضية في علم النفس والجمال تدرس العلاقة بين مدى مشابهة كائن صناعي (روبوت، دمية، أو شخصية كرتونية ما) للإنسان وردود فعلنا العاطفية تجاهها. تفيد الفرضية أن مدى تشابه الكائن الصناعي مع الإنسان يتناسب تصاعديا مع إعجابنا به وقدرتنا على التعاطف معه. إلا أن هذا يصح لدرجة معينة فحسب. الدرجة التي يبلغ فيها الشبه اقترابا من التطابق، وعندها يثير فينا نفورا غير مبرر. أو لعله مبرر، فعدم الارتياح قادم من تلقينا للكائن كبشري، ومن ثم توترنا إزاء التفاصيل الصغيرة كحركة العين وجمود الوجه. هذا الصعود في الإعجاب والتعاطف تماشيا مع الدقة في التصوير، ثم الهبوط بانحدار إذا استمر التطور هو ما يكسب الظاهرة اسم «الوادي الغريب». وهذا تماما ما يدفع بعض صناع الأفلام المعتمدة على تقنيات CGI ليختاروا أن ينتجوا أعمال إنيمي أقل من قدرتهم الفعلية في الحقيقة: خوفا من تنفير الجمهور.
في السابق - قبل أشهر أو أسابيع فقط - كنا نرى مقاطع الفيديو المنشأة بمثل هذه الأدوات ويسهل علينا تمييزها، ففي النسخة الأولى من
هذه الأدوات كانت تنتج صوتا فقط أو صورة فقط، ثم يتعين على من يريد دمجها أن يعمل على أدوات أخرى، ويستعين بأدوات أخريات لصناعة السيناريو وضبط الشخصيات كذلك، وجاءت هذه الأداة لتقول لنا أن المستقبل الذي ربما ظنناه بعيدا، قد حان، وأنه قد تنخدع بفيديو عالي الجودة، بسيناريو وصوت وصورة -متسقة معا- وموسيقى وشخصيات كلها تم توليدها بأداة تقنية، سهلة وفي المتناول، بل أن أدوات في أو 3 تنتج أصواتا وصورا أصيلة للشخصيات، غير مستنسخة بشكل كامل من البشر، بل أن هذه التقنيات تحاكي بدقة كبيرة فيزياء العالم الحقيقي، من حركة القماش مع الريح إلى انعكاسات الضوء على الأسطح المختلفة، وتفاصيل دقيقة كالرموش وتقلصات الجلد عند الابتسام، مما يجعل الخداع البصري والسمعي أمرا في متناول الجميع تقريبا.
بالتأكيد أن إدارة مثل هذه الأداة لتنتج أفضل المشاهد يتطلب دراية وخبرة في كيفية «هندسة التعليمات» لتكون دقيقة بما فيه الكفاية دون الحاجة لكثير من التعديلات وتكرار المشاهد، فعلى من يديرها أن يهندس أوامره ويفصلها، فإذا ما طلب أحدهم منها -على سبيل المثال- مقطعا ترويجيا لشركة بيع خضار في سوق تقليدي في سلطنة عمان، واكتفى، قد تنتج له مشهدا لثلاثة باعة هندي وباكستاني وسوري يتجولون في سوق نزوى على سكوتر ويروجون بلغتهم لشركة بيع الخضار تلك، بينما يأتي «مهندس تعليمات» أدق وأخبر، ليفصل الأوامر، ويدقق في السيناريو كيف يبدأ وكيف ينتهي، ويفصل الشخصيات وسماتها ولغتها ولبسها وملامحها وطبيعتها، ثم يتعمق في طبيعة المكان والألوان من خلف المشهد والضوضاء والموسيقا الخلفية، ومن ثم عن حركة وزاوية الكاميرات لحظة بلحظة، وحركات الصوت والجسم والتعابير حتى ينتهي المقطع، بالتأكيد أن نتيجة هذه التعليمات والأوامر ستكون أفضل بكثير ومقنعة أكثر وأقرب للواقع. ربما تصل إلى حد يصعب معه على المشاهد غير المدقق أن يحكم على أصالة المشهد من زيفه، وبالمناسبة أصبحت هناك دورات تخصصية مفصلة تقوم بتدريس كيفية صياغة هذه التعليمات وهندسة الأوامر لأدوات الذكاء الاصطناعي لتوجيهه بسهولة ودقة، وربما ستكون هذه المهاراة إحدى متطلبات الكثير من الوظائف في المستقبل القريب.
في أيامنا هذه التي يستهلك فيه العالم المحتوى بشكل كثيف، ومحتوى الفيديو بشكل خاص، توفر هذه الأداة، ومثيلاتها -السابقات والقادمات- ، الكثير من الوقت والجهد والتكلفة، وفي ذات الوقت تثير الكثير من المخاوف، أبرزها سهولة صنع المحتوى المزيف، أو الإدعاء بأن المحتوى مزيف وهو حقيقي، وهذا قد يمهد لانهيار الثقة في ما نراه ونسمعه، ويصبح من السهولة بمكان أن تزيف ما تريد وتنفي ما تريد بادعاء أنه مزيف، وتضلل الرأي العام كذلك، هذه الأزمة المتوقعة في الثقة قد تمتد لتشمل كل شيء، من الأخبار إلى الأدلة في المحاكم إلى الذكريات الشخصية المسجلة، مما يخلق واقعا هشا يصعب الاعتماد على مثل هذه المقاطع.
تنبهت جوجل لهذا الأمر مثلا، وأصدرت أداة تتيح التحقق من المحتوى ما إذا كان قد صنع بأدواتها. وهناك أدوات أخرى مشابهة، غير أنها تواجه تحديا كبيرا في التفريق بين محتوى صنعه البشر، ومحتوى أنشأه الذكاء الاصطناعي بتعلمه من محتوى البشر، فلا غرابة أن تصنف أحد هذه الأدوات أن خطاب الاستقلال للولايات المتحدة الأمريكية قد تم صنعه بأدوات الذكاء الاصطناعي بنسبة ٩٩٪ فربما أن هذه الأدوات تعلمت أصلا من مثل هذه النصوص وأساليبها وتراكيب الجمل التي تستخدمها هذه الأدوات كلها من كلام البشر أصلا. صحيح أن أدوات جوجل -على وجه التحديد- تخفي علامة في تركيبتها لتدل على أنها مصنعة بالذكاء الاصطناعي، غير أن المتخصصين ومن يدققون وراء الأخبار والمقاطع المرئية، هم فقط -ربما- من سيبذلون جهدهم للتحقق، كذلك فإن هذا حاليا ينطبق على أدوات شركة واحدة فقط أما الأدوات الأخرى المنتشرة من شركات عملاقة وناشئة أو مجموعات بحثية أو دول أو مطورين مستقلين أو جهات غير معلنة، فلا ضمانة لوجود أي علامة مائية أو آلية كشف لمثل هذه المقاطع، مما يجعل المحتوى المنتشر بحرا شاسعا عرضة للتزييف والإنكار دون حل تقني فعّال.
إن تطور هذه التقنيات بهذه السرعة يدفع العالم لضرورة مناقشتها وآثارها أخلاقيا وسياسيا وقانونيا. ويضع جموع الفنانين ومنتجي الأفلام والحملات الدعائية وصناع المحتوى في تساؤل ما إذا كانت هذه الأدوات قد بدأت فعليا بتغيير المعادلات في مجال صناعتهم، وهل فعلا المؤسسات والأفراد ستتبنى استخدام هذه الأداوت؟ وإلى أي حد قد تبدو هذه الأدوات مخيفة؟ الأسئلة المطروحة ليست تقنية فحسب، بل وجودية حول طبيعة الإبداع والملكية الفكرية ومصداقية الواقع الذي نعيش فيه.
شخصيا، ومن متابعة لصناعة وإنتاج الصور ونشرها والإعلان لها في وسائل التواصل في السلطنة، فأنني أرى بوضوح كيف أن المؤسسات -كبيرها وصغيرها- بدأت تستعين بأدوات الذكاء الاصطناعي بشكل كبير في صنع إعلاناتها ومنشوراتها، وهذا مبرَر بما أنها يوفر الكثير من الجهد والتكلفة والوقت وبجودة اعتيادية مقبولة.
أما عن كونها مخيفة، فأرى شخصيا أنها مخيفة، فحتى قبل أن تحدث هذه الطفرة الأخيرة انخدع الكثيرون -مثلي- بمقاطع تبدو حقيقية وهي ليست كذلك، أسمع أغنية بصوت طلال مداح -مثلا- فتعجبني وأقول ها قد فاجأني الـ«تيك توك» بأغنية لم أسمعها من قبل لطلال، ليتضح لي بعدها أنها ليست أغنيته وأنه لم يسبق له أن غناها أصلا. فكم من المحتوى خدعني وانتهى وآخر سيخدعني؟ وإلى متى سينتظر العالم ليضع ما يقنن وينظم هذه التقنيات وأخلاقياتها، التي باتت تخيف حتى صناعها! والتساؤل الذي يليه، هل يمكن للقوانين والأطر الأخلاقية أن تلحق بسرعة التطور الجنوني لهذه الأدوات، أم أننا ندخل عصرا من الفوضى الرقمية حيث الحقيقة هي أول ضحايا التقدم؟
المعتصم الريامي مطور ومهتم بالتقنية