«الفيديوهات عميقة التزييف».. خطر جديد على المجتمعات - الإمارات اليوم

تعتمد أعقد تقنيات الذكاء الاصطناعي وعلوم تعلم الآلة.. وأوباما أول ضحية لها

«الفيديوهات عميقة التزييف».. خطر جديد على المجتمعات

أجهزة الأمن الأميركية اكتشفت أن الفيديو المنسوب لأوباما هو ينتقد ترامب «عميق التزييف» واستُخدم فيه صوت مخرج سينمائي. غيتي

خلال وقت قريب، قد تفاجأ بشخصيات سياسية وعسكرية ومجتمعية معروفة، تتبوأ مراكز ومناصب مهمة، تظهر على شبكة الإنترنت في لقطات فيديو بالصوت والصورة، وهي تتحدث في موضوعات حساسة بطريقة غير معهودة وغير متوقعة، أو تخوض في موضوعات غير لائقة، أو تكشف أسراراً سياسية وعسكرية، ثم تنتشر بسرعة رهيبة عبر الإنترنت باعتبارها حقائق لا لبس فيها، فتحدث اضطرابات اجتماعية وأمنية واسعة، أو على الأقل تدمر سمعة الشخصيات التي تظهر فيها، في حين أنها ليست سوى نمط جديد من لقطات الفيديو التي يطلق عليها «الفيديوهات عميقة التزييف» DEEP FAKE VEDIOS المعدة بأعقد تقنيات الذكاء الاصطناعي وعلوم تعلم الآلة، التي يصعب -إن لم يكن من المستحيل- على غير المتخصصين والمحترفين المزودين بمهارات وأدوات تقنية عالية كشفها.

محتوى مزيف

«الفيديوهات عميقة التزييف» نمط جديد من المحتوى المزيف سريع الانتشار عبر الإنترنت، بدأ يظهر خلال الآونة الأخيرة، وكان آخر ضحاياه الرئيس الأميركي السابق باراك أوباما الذي ظهر في فيديو وهو يسخر بشدة من الرئيس الحالي دونالد ترامب، إلا أن أجهزة الأمن الأميركية اكتشفت أنه فيديو «عميق التزييف»، تم خلاله استخدام صوت أحد مخرجي السينما الأميركية في هوليوود، وهو يسخر من ترامب بشدة، وتركيب كلمات وصوت المخرج، على صوت وصورة أوباما، بطريقة فائقة المهارة، أظهرت أوباما وهو ينطق كلمات المخرج السينمائي، بكامل صوت أوباما وتعبيرات وجهة.

وقد نشر موقع «تيك ريبابليك» techrepublic.com تقريراً موسعاً حول ظاهر «الفيديوهات عميقة التزييف»، والمخاطر المتوقعة من ورائها على المجتمعات المختلفة، ونقل خلاله آراء لعلماء وباحثين في جامعات أميركية عدة أسهموا في كشف هذه الظاهرة وتتبعها، ويعملون على الوصول إلى طرق لمكافحتها، وأكدوا أنه خلال وقت قريب سيزداد انتشار هذه النوعية من التزييف العميق المعتمد على الذكاء الاصطناعي وتعلم الآلة، لكنهم أظهروا تشاؤماً وتخوفات عميقة من تأثيراتها المحتملة، لأنه لا توجد حتى الآن طريقة ناجعة وفعالة تضمن كشف هذا النوع من التزييف بسهولة وفي وقت مناسب.

فيديوهات عميقة التزييف

«الفيديوهات عميقة التزييف» هي سلالة جديدة من مقاطع الفيديو المزيفة التي تستخدم الذكاء الاصطناعي لتصوير فيديو مزيف لا يمكن كشفه، من خلال استبدال وجه وصوت شخص ما، بصوت ووجه شخص آخر، وذلك باستخدام التقنيات المتقدمة مثل خوارزميات الذكاء الاصطناعي، وتعلم الآلة، والشبكات العصبية في التعرف إلى الجوانب الصوتية أو البصرية الفعلية لشخص ما، وتصوير فيديو له وهو يقول ما يحلو له، ثم استخدام ذات الخوارزميات والتقنيات في التعرف إلى الجوانب الصوتية أو البصرية الفعلية لشخص آخر وهو يتحدث بطريقة فعلية وحقيقية في فيديو آخر، ومطلوب تزييف فيديو له، وبعد ذلك يتم استبدال ما قاله الشخص الثاني الحقيقي، بما قاله الشخص الأول المزيف، لينطق الشخص الحقيقي ما قاله ونطق به الشخص المزيف، وبتعبيرات وتلميحات الوجه نفسها التي كانت لدى الشخص المزيف ومستويات صوته، ونبراته وحركاته، وذلك بطريقة كاملة التطابق، بما يجعل التزييف عميقاً إلى الدرجة التي تجعل من المستحيل تقريباً معرفة أن الفيديو ليس حقيقياً.

ووفقاً للتقرير، فإن عدداً محدوداً من المختبرات العالمية تملك هذه التقنية حالياً، لكونها باهظة التكاليف وتتطلب مهارات عالية في التشغيل، والبعض منها موجود في استديوهات السينما والألعاب، لأغراض إنتاج الأفلام والخدع السينمائية وأفلام الخيال العلمي.

مخاطر الانتشار

مع ظهور فيديو أوباما المشار إليه عبر الإنترنت، تبين أن انتشار مثل هذه الأدوات على المستوى الواسع بات وشيكاً، ومن ثم فإن مواقع التواصل الاجتماعي والإنترنت عموماً ستصبح مسرحاً مرشحاً لتلقي المئات والآلاف من لقطات «الفيديو عميقة التزييف».

وفي هذا الصدد، فتح مدير أخلاقيات وحوكمة مبادرة الذكاء الاصطناعي في مركز «هارفارد» ومختبر الإعلام في معهد «ماساتشوستس» للتكنولوجيا، تيم هوانغ، نقاشاً مع العديد من الباحثين لمعرفة ما إذا كان زملاؤه يعتقدون أن «الفيديوهات عميقة التزييف» ستصبح تهديداً واقعياً قبل نهاية عام 2018، وربما أثرت في انتخابات التجديد النصفي للكونغرس الأميركي.

وقد أعرب العديد من الباحثين عن اعتقادهم بأن تلك الفيديوهات ستؤثر أو أثرت فعلاً في انتخابات الكونغرس، ذلك أن المرشح السياسي سيكون موضوعاً لفيديو عميق التزييف يحصل على أكثر من مليوني مشاهدة قبل أن يعرف الجمهور أنه غير حقيقي. إلا أن هوانغ قال إنه لا يعتقد أن الفيديوهات عميقة التزييف ستحدث أثراً كبيراً قبل نهاية العام، لأن أدواتها المتاحة الآن غير جاهزة للوصول الى هذه المرحلة في الوقت القصير المتبقي من العام.

أمّا المحاضرة في القانون بكلية الحقوق بجامعة «ييل»، ربيكا كروتوف، فقالت إن أعمال الفيديوهات عميقة التزييف يمكن أن يكون لها تأثير خطير بحلول نهاية عام 2018، ذلك أن الأمر لا يتعلق بمسألة ما إذا كانت هذه مسألة وقت ومتى علمنا أن ذلك حدث، ولكن الأمر يتعلق بأن تأثير التزييف العميق لن يكتشف إلا بعد إجراء الانتخابات.

وسائل الكشف

يعمل بعض الباحثين على إيجاد طرق لمكافحة هذا النوع من الفيديوهات، ومنهم مدير قسم «الرؤية بالكمبيوتر» وتعلم الآلة بمعامل جامعة «الباني»، الدكتور سيويل ليو، الذي نشر بحثاً علمياً في يونيو الماضي أوضح فيه أن تتبع وميض العين والطرف (حركة الجفن وهو يطرف) تعد من العلامات المهمة التي يمكن من خلالها كشف التزييف العميق في الفيديوهات المشكوك فيها، مؤكداً أن الوميض والطرف معاً إذا لم يحدثا بطريقة معينة وفق النمط المعتاد حدوثه مع الشخص، فإن الفيديو مشبوه ومشكوك فيه، وأكد أنه يبحث مع فريقه في بعض الأساليب الأخرى لكشف التزييف، لكنه فضل أن تظل سرية حتى لا يستغلها من يقومون بالتزييف العميق في اتخاذ إجراءات مضادة.

وأضاف أنه بقضاء ساعات طويلة في مشاهدة مقاطع الفيديو العميقة ودراسة مقاطع الفيديو، تبين أن الأمر يتطلب قدراً من الحدس والتخمين، فضلاً عن الأدلة المادية، للمضي قدماً في كشف التزييف العميق، مؤكداً أنه لا ينبغي مطلقاً التقليل من أهمية الحدس وموهبة التخمين لدى القائمين على المراجعة والفحص.


تدريب مناوئ

يطوّر منتجو «الفيديوهات عميقة التزييف» تدريبات مضادة لأدوات الكشف والفحص، وحول هذه النقطة قال المؤسس المدير المسؤول لمركز مسؤولية الإعلام الاجتماعي في جامعة «ميتشيغان» الأميركية، بول ريسنك، إن هؤلاء يمكنهم تدريب أدوات توليد «الفيديوهات العميقة التزييف» من خلال جعلها تحاول تلقائياً تشغيل أجهزة الكشف والفحص، ثم تعلم كيفية تفاديها.

وبحسب قوله، فإن هذا يجعله متشائماً بشأن القدرة على امتلاك كاشفات فعالة تعتمد فقط على محتويات الفيديو، لأن المهاجمين سيستخدمون أدوات وأجهزة الكشف كجزء من عملية التدريب الخاصة بهم.

طباعة