لتكوين رأي عام وهمي قائم على التضليل خلال الأزمات

تحذير من نصوص وتعليقات مزيّفة تجتاح المواقع الجماهيرية

باحثون أكدوا أنه يمكن توليد نص عميق التزييف على هيئة مشاركة أو تعليق بواسطة خوارزميات الذكاء الاصطناعي. من المصدر

يتعرّض العديد من المواقع الجماهيرية الكبرى على الإنترنت، والتي تتضمن خدمة فتح التعليقات العامة للجمهور بشأن القضايا الجارية على مستوى العالم، لموجة من «النصوص والتعليقات عميقة التزييف»، بقصد تكوين موقف عام وهمي قائم على التضليل، يعطي الانطباع بأن الرأي العام الحقيقي يدعم اتجاهاً ما يروج له طرف ما، بشأن التعامل مع قضية أو موقف معين أثناء الأزمات، ما يجعل قضية المعلومات والأخبار المضللة المتعلقة بأزمة وباء «كورونا» الحالية أكثر حدة وتعقيداً.

جاء ذلك في تحذير تضمنته دراسة أجراها الباحثون في معمل بحوث خصوصية البيانات بجامعة هارفارد، لاتانيا سويني، وجينيان زانج، وماكس فايس، ونشروها على موقع مبادرة علوم التقنية «techscience.org»، كما نشروا ملخصاً لها على موقع «تيك كرانش» المتخصص في التقنية، أكدوا فيه خطورة هذه النوعية من الهجمات، واتساع نطاقها، خلال أزمة «كورونا»، تزامناً مع الاجراءات والقواعد الاحترازية لمكافحة المرض، التي يثار حولها الجدل طوال الوقت، حيث تحاول أطراف مختلفة اللجوء لهذه النوعية من الهجمات، لبناء انطباع قائم على التضليل، تجاهها.

اختبار

وقال الباحثون إنهم نفذوا اختباراً بسيطاً، للتحقق من سهولة تنفيذ ونشر تلك النوعية من الهجمات، تم خلاله استخدام واحدة من أبسط تقنيات توليد النصوص عميقة التزييف، وكذلك توليد الردود والتعليقات عليها، في زرع نص عميق التزييف داخل أداة التعليقات المفتوحة، الموجودة بموقع شبكة مراكز تقديم الرعاية الصحية عبر بطاقات الرعاية الصحية.

وأوضحوا أنهم تمكنوا بسهولة من توليد نص عميق التزييف، على هيئة مشاركة أو تعليق على الموقع، بواسطة خوارزميات الذكاء الاصطناعي البسيطة المتاحة على نطاق واسع، ثم توليد 1001 رد وتعليق عميق التزييف، على المشاركة الأساسية، بواسطة الـ«روبوتات» البرمجية.

تفاعل

وأضاف الباحثون أن هذا الأمر استغرق وقتاً قصيراً في التنفيذ، ثم أصبح موجوداً ضمن التعليقات الأصلية الصحيحة المضافة من الجمهور الحقيقي، خلال الفترة التي أتاح فيها الموقع التعليقات المفتوحة للجمهور، حول قضية من القضايا المتعلقة بالرعاية الصحية المقدمة من شبكة المراكز، مشيرين إلى أن النص المزيف تابع اتساعه، من دون أن يدرك أحد أنه عميق التزييف، حيث تفاعل معه الجمهور الحقيقي، وجلب معه 800 تعليق وردّ إضافي، لكنها حقيقية هذه المرة، انخرطت في حوار أو نقاش حول ما ورد بالنص عميق التزييف، والتعليقات عميقة التزييف، لتقدم في النهاية قائمة من 1800 تعليق، مضت جميعها في الاتجاه الذي تم وضعه بالنص عميق التزييف.

تزييف بلا اكتشاف

وتابع الباحثون أن أحداً لم يلاحظ أبداً أن هناك أكثر من 1000 نص عميق التزييف، مزروعة ضمن المشاركات والتعليقات القائمة على الموقع.

وفي خطوة تالية أخذ الباحثون هذا النص والردود والتعليقات الخاصة به، وعرضوها على عينة مكونة من 100 شخص، وطلبوا إليهم محاولة اكتشاف النصوص المزيفة، من النصوص الحقيقية، وكانت المفاجأة أن 55% منهم قالوا إن النص الأساسي صحيح والردود عليه صحيحة، في حين قال 45% أنها نصوص مزيفة، ما يعني أن أكثر من نصف الرأي العام الذي قرأ هذه النصوص المزيفة كلياً على الموقع، تعرض للخديعة، وربما حدد مواقفه بناءً عليها، وأصبحت لديه آراء قائمة على التضليل والمعلومات الكاذبة.

خطة دفاعية

أوصى الباحثون باستخدام التقنية المعروفة باسم «كابتشا» لقطع الطريق أمام الـ«روبوتات» البرمجية وتقنيات التزييف العميق للنصوص من المشاركة في التعليقات والنقاشات العامة المفتوحة، عبر مواقع الإنترنت المختلفة، موضحين أن تقنية «كابتشا» تظهر كمربعات في أسفل نماذج الإنترنت التي تطلب منا تحديد كلمة أو اختيار صورة، سواء بصرياً أو سمعياً، قبل أن يتمكن المستخدم من المشاركة في النقاش وإرسال التعليقات والمشاركات.

وقال الباحثون إن هذه التقنية لا تقطع الطريق كلياً على هجمات التزييف العميق، إلا أنها تجعلها صعبة ومكلفة للغاية بالنسبة للمهاجم.

ولتحقيق مزيد من الكفاءة في صد هذه النوعية من الهجمات، بين الباحثون أنه يمكن بناء الخطة الدفاعية على مرحلتين، الأولى في مرحلة إرسال التعليق، والتي تستخدم فيها تقنية «كابتشا»، بينما المرحلة الثانية هي مرحلة قبول التعليق، إذ يمكن أن تستخدم فيها تقنية طلب تحديد الهوية قبل قبول التعليق ونشره.

طباعة