للوصول إلى أرصدتهم أو بياناتهم الشخصية

محتالون يستنسخون أصوات الضحايا بـ «الذكاء الاصطناعي»

صورة

يتلقى أشخاص مكالمات هاتفية من أقرباء لهم، أو أصدقاء، أو من رؤسائهم في العمل، لمطالبتهم بمبالغ مالية مستعجلة.

ويقول هؤلاء في اتصالاتهم إنهم يحتاجون إلى المال حالاً، زاعمين أنهم واقعون تحت تأثير ظرف ما، مفاجئ، يصعب عليهم شرحه.

ويتطابق صوت المتصل مع صوت صاحب الرقم، الذي يعرفه متلقي الاتصال جيداً، إلى حد أنه لا يفكر في اتخاذ أي إجراء للتأكد من هوية المتصل، قبل أن يفاجأ بأنه كان ضحية لعملية احتيال أو خدعة استخدمت فيها برامج وتقنيات وتطبيقات الذكاء الاصطناعي.

هذه أحدث صرعات «الذكاء الاصطناعي» الذي يستطيع استنساخ صوت أي شخص من ملفاته الخاصة بالوسائط الاجتماعية خلال ثلاث ثوان فقط.

ويستغل محتالون هذه التقنية في تنفيذ مخططاتهم، إذ يمكن لمن يمتلك مقطعاً صوتياً لا تزيد مدته على ثلاث ثوانٍ، أن يحصل على أصوات مستنسخة بتطابق تصل نسبته إلى 85%، الأمر الذي يمكن المحتالين من معرفة المعلومات الشخصية للضحايا أو الاستحواذ على أرصدتهم البنكية أو تنفيذ أنشطتهم الأخرى، غير القانونية.

وأكد تقنيون ومستشارون قانونيون لـ«الإمارات اليوم» ضرورة فرض الرقابة على التقنيات الحديثة المدعومة بالذكاء الاصطناعي، وإنشاء إدارة مستقلة مجهزة بخبراء وموظفين تقنيين وفنيين، مهمتهم مكافحة الجرائم المرتكبة بواسطة التقنيات الحديثة المدعومة بالذكاء الاصطناعي، ووضع تشريع خاص ينظم استخدام الذكاء الاصطناعي بالكامل، مع فرض عقوبات صارمة على المتسببين في الاحتيال باستخدام التقنيات الحديثة.

وأفادت المستشارة القانونية، المحامية أساور خميس المنصوري، بأن «الاحتيال عبر الذكاء الاصطناعي يعتبر أكثر فعالية بالنسبة للمحتالين الإلكترونيين، إذ يمكن لمن يمتلك مقطعاً صوتياً لشخص ما استخدام أدوات تحويل النص إلى صوت من خلال كتابة النص وإدخاله في برامج استنساخ الصوت بواسطة الذكاء الاصطناعي، كي تظهر بأصوات تكاد تكون مطابقة لأصوات معارف الضحايا».

وتابعت أن «استنساخ صوت شخص ما أصبح أداة قوية في أيدي المحتالين».

وأشارت إلى أن «خطورة تقنيات تزييف الصوت المدعومة بالذكاء الاصطناعي والمستخدمة في عمليات الاحتيال تكمن في مدى صعوبة إقامة الدليل وكشف التلاعب بالأصوات والتعرف إلى المتسبب بهذه الجرائم، إذ تعد من الجرائم التي قد ترتكب من داخل الدولة أو خارجها، وبالتالي يصعب تتبع المكالمات والأموال المسروقة من المحتالين الذين يعملون من مختلف أنحاء العالم».

وأضافت المنصوري أنه على الرغم من أن دولة الإمارات من الدول السباقة في إصدار التشريعات المتعلقة بالتحول الرقمي والتكنولوجيا، فهي لم تصدر أي تشريع خاص ينظم الذكاء الاصطناعي بشكل تام، وإن كانت توجد نصوص قانونية متفرقة ومأخوذة من تشريعات متعددة يمكن تكييفها وتطبيقها في حال إثبات إساءة استخدام تقنيات تقليد الصوت المدعومة بالذكاء الاصطناعي في عمليات الاحتيال القائمة على انتحال الشخصية.

وتابعت أن المشرع الإماراتي جرّم الاحتيال الصوتي وانتحال الشخصية باستخدام تقنيات الذكاء الاصطناعي.

وتساءلت عن مدى القدرة على مواجهة تحديات التقنيات الحديثة، خصوصاً أن المشكلة ستزداد تعقيداً مع تطور التكنولوجيا والذكاء الاصطناعي.

ورأت أن من الضروري تطوير القواعد القانونية أو إصدار تشريع ينظم الذكاء الاصطناعي، مع فرض عقوبات صارمة على المتسببين في الاحتيال الصوتي، ورسم إطار قانوني واضح يحدد معايير استخدام الذكاء الاصطناعي، إضافة إلى تحديد المسؤولية القانونية، سواء على المصمم أو المطور أو المستخدم في حال استخدامها لأغراض غير مشروعة.

كما دعت إلى فرض الرقابة على التقنيات الحديثة المدعومة بالذكاء الاصطناعي بواسطة خبراء وتقنيين مختصين.

من جهته، أكد المستشار القانوني، فهد سعيد الظهوري، أن «الذكاء الاصطناعي قادر على تقليد الأصوات وتكرارها بشكل واقعي»، مضيفاً أن «هذا أحد التطورات الجديدة والمثيرة في عالم التكنولوجيا. ومع ذلك، فإن هذا الإنجاز يثير مخاوف وتحديات أمنية، إذ يمكن استخدامه لتقليد صوت شخص ما، مثل تسجيل مكالمة هاتفية، وتقليد صوت شخص ما للقيام بأنشطة غير قانونية أو الحصول على معلومات سرية».

وذكر أن هناك خطوات عدة يمكن اتخاذها للحد من جرائم تزوير الهوية الصوتية باستخدام تقنيات التقليد الصوتي والذكاء الاصطناعي، أولها التوعية بمخاطر التلاعب بالأصوات وكيفية الحماية منه. وثانياً، تطبيق القوانين والعقوبات المقررة بشكل صارم على المتسببين في جرائم تزوير الصوت. وثالثاً، استخدام تقنيات فحص النمط الصوتي ومقارنته بالصوت الأصلي للشخص.

وأكد أنه «يمكن استخدام تقنيات الحلول الأمنية المتطورة لمنع الوصول غير المصرح به إلى الوسائط الاجتماعية التي تستخدم لتسجيل الأصوات».

وطالب الظهوري بالشراكة بين القطاعين الخاص والحكومي للعمل معاً لتطوير حلول فعالة لمكافحة جرائم تزوير الصوت، بما في ذلك تطوير تقنيات الكشف المتطورة والتدريب عليها.

وأكد الخبير التقني في مجال أنظمة التشغيل والمحاضر في كليات التقنية العليا، المهندس محمد الشحي، أننا نعيش في طفرة هائلة متعلقة بالذكاء الاصطناعي وتطور أدواتها القوية التي يمكن أن تدفع الابتكار والنمو في العديد من القطاعات.

وقال: «مع ذلك، يجب ألا نتغاضى عن الجانب المظلم للذكاء الاصطناعي، خصوصاً أن المحتالين الإلكترونيين يتبنون بشكل متزايد هذه التقنيات لتوسيع نطاق عملياتهم وأتمتتها، ما يؤدي إلى هجمات أكثر تطوراً».

وأشار إلى ضرورة فهم الطرق التي يمكن من خلالها استغلال الذكاء الاصطناعي في تنفيذ أنشطة ضارة لتطوير دفاعات فعالة وحماية المجال الرقمي.

ودعا إلى تطوير أساليب التوعية من مخاطر الذكاء الاصطناعي «لأن معظم النصائح التقليدية لن تكون قابلة للتطبيق مع الطفرة الحالية».

وأضاف أن تقنية الاستنساخ الصوتي فتحت آفاقاً جديدة للمحتالين.

ولفت إلى أن استخدام استنساخ الصوت بالذكاء الاصطناعي (التصيد الصوتي)، يمكن المحتال من انتحال شخصية فرد موثوق به أو جهة رسمية عبر الهاتف لخداع الضحية للكشف عن معلومات حساسة أو القيام بعمل معين. وشرح أن المحتال قد يستخدم استنساخاً صوتياً لانتحال شخصية ممثل بنك أو مسؤول تنفيذي كبير في شركة، ويطلب من الضحية تحويل الأموال أو مشاركة البيانات السرية.

وشرح أن التزييف العميق في الصوت يشكل خطراً على أنظمة المصادقة الحيوية القائمة على الصوت، إذا تمكن المحتال من إنشاء استنساخ مقنع لصوت المستخدم. ومن المحتمل أن يتجاوز أنظمة التعرف إلى الصوت، ما يؤدي إلى الوصول غير المصرح به إلى البيانات الشخصية أو بيانات الشركة.

وأكدت خبيرة التقنية وأحد سفراء البرمجة في البرنامج الوطني للمبرمجين في الدولة، موزة محمد مصبح، أن «الذكاء الاصطناعي أسهم في ارتفاع عدد ضحايا الاحتيال الهاتفي من خلال الهندسة الاجتماعية المتقدمة حيث يحلل البيانات والمعلومات الشخصية المتاحة عبر الإنترنت لإنشاء ملفات شخصية شاملة للضحايا، وتحليل الأنماط السلوكية والاهتمامات الشخصية لديهم وتخصيص الهجمات الاحتيالية لتناسب أفضل اهتماماتهم ومشكلاتهم المحتملة، وبهذا يجعل الضحايا أكثر استقبالاً للخداع والتلاعب».

وتابعت أن «المحتالين يلجؤون دائماً إلى استخدام أحدث الطرق للإيقاع بضحاياهم، وعلينا عدم الانقياد لطلبات أي شخص دون التأكد من صدقيته عبر توجيه عدد من الأسئلة الشخصية التي يصعب على التقنية الإجابة عنها».

• 3 ثوانٍ من صوت الضحية كافية لإنتاج تطابق بنسبة 85%.

تويتر