أكد تحمّل مجالس إدارات البنوك وشركات التأمين المسؤولية الكاملة.. وحق المستهلك في «المراجعة البشرية»

«المركزي»: لا يجوز استخدام الذكاء الاصطناعي للتسويق المضلِّل أو للضغط على المتعاملين

«المركزي» أكد أنه يجب ألّا يؤدي تطبيق الذكاء الاصطناعي في القطاع المالي إلى نتائج تمييزية. أرشيفية

أكد المصرف المركزي أنه لا يجوز للبنوك أو شركات التأمين استخدام الذكاء الاصطناعي لتسويق المنتجات المختلفة بشكل مضلل أو للضغط على المتعاملين، مشدداً على أحقية المستهلك في طلب مراجعة بشرية وتوفير آليات واضحة للشكاوى، حسب تفاصيل نشرها المصرف المركزي، أمس، على موقعه الإلكتروني ضمن مذكرة إرشادات توجيهية لحماية المستهلك وضمان الاستخدام المسؤول للذكاء الاصطناعي في القطاع المالي.

وأضاف أنه يجب ألّا يؤدي تطبيق الذكاء الاصطناعي في القطاع المالي إلى نتائج تمييزية، مطالباً البنوك بأن تعمل أنظمة الذكاء الاصطناعي تحت إشراف بشري فعال، خصوصاً في القرارات المؤثرة.

وعرّف المصرف المركزي «القرار عالي التأثير»، بأنه أي قرار يتم اتخاذه باستخدام الذكاء الاصطناعي ويؤثر مادياً في وصول العميل إلى منتج أو خدمة مالية مثل الموافقة على قرض، أو مطالبة تأمينية.

وتابع: «مجلس الإدارة والإدارة العليا يتحملان المسؤولية الكاملة عن أنظمة الذكاء الاصطناعي ونتائجها، بما في ذلك اختيار النماذج أو تطويرها ونشرها والمساءلة عنها وتوفير الموارد البشرية المناسبة والإشراف والمراقبة والإدارة المستمرة لها، كما يجب إعداد تقارير دورية تُطلب من الإدارة المختصة إلى الإدارة العليا ومجالس الإدارة تتناول الأداء والمخاطر».

وقال: «يجب على مجالس الإدارة والإدارة العليا التأكد من أن لجان المخاطر ووظائف الرقابة (مثل الامتثال، والتدقيق الداخلي، وإدارة المخاطر) تفهم العمليات المدفوعة بالذكاء الاصطناعي، وأن تكون قادرة على مراجعة النتائج والتشكيك فيها عند الاقتضاء، مع اعتبار تبني ونشر واستخدام الذكاء الاصطناعي جزءاً لا يتجزأ من إطار إدارة المخاطر كما يجب الاحتفاظ بسجل (جرد) بجميع نماذج أو أنظمة أو تقنيات الذكاء الاصطناعي التي يتم تطويرها أو نشرها، مع تضمين تدابير الامتثال والتدريب ضمن جميع الوظائف المسؤولة عن استخدامها وإدارتها ومراقبتها، وذلك بما يتماشى مع معايير إدارة النماذج وإرشادات إدارة النماذج الصادرة عن المصرف المركزي (2022)».

وأضاف: «يجب إخضاع أنظمة الذكاء الاصطناعي لاختبارات دورية (مرة واحدة سنوياً أو في كل مرة يتم فيها ترقية النموذج أو تعديله بشكل جوهري أو إدخال نموذج جديد) للكشف عن أي تحيزات مدمجة غير مقصودة أو نتائج تمييزية ومعالجتها. ويجب أن يعكس نشر الذكاء الاصطناعي المعايير الأخلاقية ومدونة السلوك الخاصة بالمؤسسة. كما يجب أن تكون القرارات المتخذة أو المدعومة بالذكاء الاصطناعي متوافقة مع واجب التصرف بأمانة وعدالة وبما يخدم أفضل مصالح المستهلكين».

وشدد «المركزي» على أنه يجب أن يتناسب مستوى التدخل البشري مع مستوى المخاطر المحتملة على المستهلك، ويحق للمستهلك طلب مراجعة بشرية أو تفسير للقرارات الصادرة عن الذكاء الاصطناعي، ويجب توفير ترتيبات بديلة عند رفض الخضوع لقرار آلي. كما يجب الحفاظ على قنوات واضحة وميسرة للشكاوى، ومعالجتها بكفاءة وسرية وفي أقصر وقت معقول، كما يجب ألا يُستخدم الذكاء الاصطناعي لاستهداف العملاء بمنتجات غير مناسبة أو لممارسات بيع ضاغطة أو تسويق مضلل.

وأكد «المركزي» أنه عند الاعتماد على مزودي خدمات خارجيين أو مزودي خدمات سحابية، فيجب إجراء العناية الواجبة بشأن الحوكمة والأمن وحماية البيانات، وضمان إدراج بنود تعاقدية تتيح حقوق التدقيق والوصول إلى المعلومات والامتثال لمتطلبات المصرف المركزي. كما يجب توثيق مبررات اختيار المزود، وإجراء مراجعات سنوية للأمن السيبراني من جهات مستقلة، والحفاظ على سجل بجميع النماذج بما في ذلك تلك المستضافة لدى أطراف خارجية كما ينبغي تجنب الاعتماد المفرط على مزوّد واحد إذا كان ذلك ممكناً.

وفي بيان صدر أمس، قال «المركزي» إنه أصدر مذكرة إرشادات توجيهية بشأن حماية المستهلك وضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي، والتعلّم الآلي من قبل المؤسسات المالية المرخّصة العاملة في الدولة، في خطوة تعكس نهجه الرقابي الاستباقي ومواكبته للتطورات المتسارعة في التحول الرقمي والخدمات المالية الذكية.

وتهدف المذكرة إلى إرساء إطار واضح يوجّه المؤسسات المالية نحو توظيف هذه التقنيات بصورة آمنة ومسؤولة. وتحدّد الإرشادات مجموعة مبادئ أساسية تُشكّل مرجعية للاستخدام الأمثل لهذه التقنيات، وتشمل الحوكمة والمساءلة، والعدالة والحد من التحيّز، والشفافية وتجنّب الغموض، والإشراف البشري الفعّال، إلى جانب متطلبات حماية البيانات والخصوصية.

كما تتضمّن المذكرة أحكاماً متعلقة بإفصاحات المستهلكين، بما يضمن وضوح المعلومات المقدّمة باللغتين العربية والإنجليزية، ويكفل إتاحة خيارات مناسبة للاعتراض أو الانسحاب في الحالات ذات الأثر المرتفع الناتجة عن القرارات المؤتمتة.

وقال محافظ المصرف المركزي، خالد محمد بالعمى: «تهدف مذكرة الإرشادات التوجيهية إلى إرساء إطار واضح للاستخدام المسؤول لتقنيات الذكاء الاصطناعي والتعلّم الآلي في القطاع المالي، بما يعزّز حماية المستهلك ويُرسّخ مبادئ الحوكمة والشفافية، مع التأكيد على أهمية الإشراف البشري ومتطلبات حماية البيانات».

خبير: «التخصيص المفرط» في الذكاء الاصطناعي في غير مصلحة المتعامل

قال استشاري العلوم الإدارية وتكنولوجيا المعلومات في «جي آند كي»، عاصم جلال، إن «الذكاء الاصطناعي يلعب دوراً كبيراً في القطاع المصرفي خصوصاً ما يسمى تقنياً (التخصيص المفرط)، بمعنى أن بوسع البنك تقديم خدمات تفصيلية تناسب كل متعامل على حدة وفق احتياجاته بشكل حصري، وكمثال ذلك إذا كان المتعامل يرغب في الحصول على قرض، فإنه يمكن باستخدام (التخصيص المفرط) معرفة القرض المناسب له، وفق المعلومات والبيانات المتاحة عنه، لكن على الجانب الآخر يمكن أيضاً تجنيد تلك المعلومات بطريقة ما للضغط على المتعامل، أو للتسويق بطريقة تكون في مصلحة البنك وليس في مصلحة المتعامل».

وأضاف جلال: «هذه الخاصية تتيح للبنوك عمل نموذج مناسب لكل متعامل بشكل حصري، حتى لو كان عدد المتعاملين بالملايين»، لافتاً إلى أن «التخصيص المفرط» يعتمد على بيانات المتعامل، وبالتالي يمكن لفريق التسويق في البنوك استخدام هذه البيانات والمعلومات لفهم نقاط ضعف المتعامل، ومعرفة احتياجاته، وبالتالي الضغط عليه لقبول منتجات قد لا يحتاجها أو لا تناسبه.

• «المركزي» طالب البنوك بأن تعمل أنظمة الذكاء الاصطناعي تحت إشراف بشري فعال، خصوصاً في القرارات المؤثرة.

تويتر