«سي دي إي آي»: الخوارزميات تراقب الناس ولا يوجد من يراقبها

%60 من البريطانيين يعارضون «الذكاء الاصطناعي» داخل النظام الجنائي

خوارزميات الذكاء الاصطناعي بدأت تنتشر بصورة متسارعة. رويترز

أبدى 60% من المواطنين البريطانيين معارضتهم لاستخدام الذكاء الاصطناعي في صنع القرارات داخل نظام العدالة الجنائية، في وقت حذر فبه المركز البريطاني لأخلاقيات البيانات والابتكار (سي دي إي آي) من أن خوارزميات الذكاء الاصطناعي لديها الفرصة الكاملة لمراقبة الناس، من دون أن يكون هناك من يراقبها.

مراقبة عامة

وتفصيلاً، حذر مسؤولو المركز البريطاني لأخلاقيات البيانات والابتكار (سي دي إي آي)، من أن خوارزميات الذكاء الاصطناعي التي بدأت تنتشر بصورة متسارعة، وعلى نطاق واسع، في القطاعات الحكومية والعامة، لديها الفرصة الكاملة لمراقبة الناس، وتتبع بياناتهم التاريخية، من دون أن يكون هناك من يراقبها، ويراجع سلامة أدائها ونتائجها، ما يشكل خطورة، ليس فقط بشأن ما يخص التداعيات السلبية المترتبة على الأشخاص، لكن بشأن سلامة وصحة أداء وقرارات المؤسسات الحكومية والعامة.

جاء هذا التحذير في سياق تقرير نشره المركز، في 27 نوفمبر 2020، عبر موقعه gov.uk/‏‏government/‏‏organisations/‏‏centre-for-data-ethics-and-innovation، تحت عنوان: «مراجعة للتحيز في صنع القرار المستند للخوارزميات»، وتضمن تحليلات استمرت عامين لسلسلة من الخوارزميات المستخدمة في أنظمة الذكاء الاصطناعي بالقطاعات الحكومية والعامة داخل بريطانيا، وكانت القضية الرئيسة التي تناولتها التحليلات هي المتعلقة بالسؤال: «إذا كانت الخوارزميات تراقبنا، فمن يراقب الخوارزميات؟».

معارضة كبيرة

وكشفت التحليلات عن أن 60% من المواطنين البريطانيين يعارضون، حالياً، استخدام الذكاء الاصطناعي في صنع القرارات داخل نظام العدالة الجنائية. كما قال 83%، ممن جرى استطلاع رأيهم في هذا الأمر، إنهم ليسوا متأكدين من كيفية استخدام مثل هذه الأنظمة بقوات الشرطة في المقام الأول. وقد دفعت هذه النتائج الخبراء إلى القول بأن كسب ثقة الجمهور يعد عاملاً أساسياً للنشر الناجح للذكاء الاصطناعي، ومادام الكثيرون يعارضون، أو لا يثقون على هذا النحو، فستكون المخاطر واحتمالات الفشل في التطبيق كبيرة.

مشكلة حساسة

أشار خبراء المركز إلى أنه على الرغم من تزايد الوعي بالتهديدات التي قد يشكلها الذكاء الاصطناعي في جميع القطاعات والصناعات، فإنه لا يوجد حتى الآن مثال محدد للممارسات الجيدة، عندما يتعلق الأمر ببناء خوارزميات مسؤولة، كما أن غياب مثل هذه الممارسات الجيدة يمثل مشكلة حساسة، خصوصاً عند تقديم الخدمات العامة التي لا يملك المواطنون اختيار الانسحاب منها أو تجنبها، مثل الخدمات الشرطية والأمنية.

وفي مجال الخدمات الشرطية بالذات، خلصت التحليلات إلى أن هناك قلقاً واسع النطاق عبر مجتمع إنفاذ القانون في المملكة المتحدة، بشأن الافتقار إلى التوجيه الرسمي بشأن استخدام الخوارزميات في عمل الشرطة، إذ أكد الخبراء أنه تجب معالجة هذه الفجوة على وجه السرعة، لأن قوات الشرطة تعمل على زيادة اعتمادها على التقنيات الرقمية بسرعة، ففي بداية العام، أعلنت الحكومة عن تمويل بقيمة 63.7 مليون جنيه إسترليني لتطوير برامج تكنولوجيا الشرطة، وتراوح الأدوات الجديدة بين تقنيات العرض البصري المرئي للبيانات، والخوارزميات التي يمكنها اكتشاف أنماط الجريمة المحتملة، وحتى التنبؤ باحتمالية ارتكاب شخص ما للإجرام مرة أخرى.

ممارسات تمييزية

مضى الخبراء إلى القول بأنه، في حال تم نشر هذه التقنيات دون ضمانات مناسبة، فقد يكون لأدوات تحليل البيانات عواقب غير مقصودة، إذ أظهرت التقارير، مراراً، أن بيانات الشرطة يمكن أن تكون متحيزة، وغالباً تكون غير ممثلة لكيفية توزيع الجريمة.

ووفقاً للبيانات الصادرة عن وزارة الداخلية البريطانية في عام 2019، فإنه من المرجح أن يتم توقيف وتفتيش الأشخاص الذين يُعرفون بأنهم بريطانيون ببشرة سوداء، أو أصحاب البشرة السوداء أكثر بـ10 مرات من قبل ضابط، مقارنة بذوي البشرة البيضاء. وخلصت التحليلات إلى أن نظام الذكاء الاصطناعي، الذي يعتمد على هذا النوع من البيانات التاريخية، يخاطر بإدامة الممارسات التمييزية.


نتائج غير عادلة

قال خبراء «سي دي إي آي» إن القضايا، التي تواجهها قوات الشرطة في استخدامها خوارزميات الذكاء الاصطناعي، قائمة أيضاً بصور أخرى، في الخدمات العامة المقدمة من الإدارات الحكومية الأخرى، وتعتمد على الخوارزميات وعلوم البيانات في اتخاذ قرارات تتعلق برفاهية المواطنين أو الإسكان أو التعليم أو النقل، عبر تحليل بيانات تاريخية مليئة بالتحيز، ومن ثم يمكن أن تؤدي بالقدر نفسه إلى نتائج غير عادلة، فقبل بضعة أشهر فقط، على سبيل المثال، قامت مؤسسة «أفكوال»، المسؤولة عن تنظيم الامتحانات في حكومة المملكة المتحدة، بتصميم خوارزمية من شأنها تخصيص درجات السنة النهائية للطلاب، لتجنب تنظيم الاختبارات البدنية في منتصف جائحة «كورونا»، وعند استخدامها عملياً، اتضح أن الخوارزمية أنتجت تنبؤات غير عادلة، بناءً على بيانات متحيزة حول الأداء السابق للمدارس المختلفة، فقامت المؤسسة على الفور بسحب الأداة، والعودة إلى تنبؤات درجات المعلمين.

تويتر