وثيقة أصدرها الفاتيكان وشركتا «آي بي إم» و«مايكروسوفت»

«نداء روما» يضع 6 مبادئ لأخلاقيات الذكاء الاصطناعي

الوثيقة جاءت على خلفية جدل تصاعد أخيراً حول مخاطر الذكاء الاصطناعي. من المصدر

في إطار الجهود الدولية الرامية للحد من الآثار السلبية المصاحبة لبعض تقنيات المعلومات المتقدمة، وفي مقدمتها الذكاء الاصطناعي، ونظم التعرف إلى الوجوه، صدرت الجمعة الماضية وثيقة دولية بعنوان: «نداء روما لأخلاقيات الذكاء الاصطناعي»، متضمنة ستة مبادئ أساسية. وطالب مصدرو الوثيقة جميع الأطراف العاملة في هذه التقنية بالالتزام بها، لضمان عدم انحراف هذه التقنيات عن مسارها الحميد، وانزلاقها إلى ممارسات ضارة بالإنسانية.

وشملت هذه المبادئ: الشفافية في تصميم وبناء وتشغيل هذه النظم، والشمولية في الاستخدام، والمسؤولية، والحياد، والموثوقية، والأمن والخصوصية.

وثيقة أخلاقية

صدرت الوثيقة صباح 28 فبراير عن كل من الفاتيكان، وشركتي «آي بي إم» و«مايكروسوفت»، ونُشر النص الكامل لها على موقع academyforlife.va التابع للفاتيكان.

وقال متحدث باسم بابا الفاتيكان إن التطورات الملحوظة في مجال التكنولوجيا، خصوصاً تلك التي تتعامل مع الذكاء الاصطناعي، تثير تداعيات مهمة على نحو متزايد في جميع مجالات النشاط البشري، لهذا السبب هناك حاجة الآن إلى مناقشات مفتوحة وملموسة حول هذا الموضوع.

وجاءت الوثيقة على خلفية جدل تصاعد أخيراً، حول مخاطر الذكاء الاصطناعي، وضرورة ضبطها أخلاقياً، وهي مخاوف عبّر عنها العديد من قادة شركات التقنية، مثل الرئيس التنفيذي لـ«غوغل» سوندر بيشاي، والرئيس التنفيذي لشركة «تسلا»، إيلون موسك، كما جاءت على خلفية اتهامات صريحة وجهتها دراسات عدة لنظم التعرف إلى الوجوه، بأنها تظهر تحيزاً واضحاً ضد الملونين والسود والآسيويين مقارنة بالبيض، ما أثار جدلاً حتى داخل الوكالات الحكومية الفيدرالية الأميركية نفسها حول حيادية ودقة هذه النظم، الأمر الذي دفع اتحاد الحريات المدنية الأميركي إلى دعوة الوكالات الحكومية إلى التوقف عن استخدامها، لكونها تقود الى قرارات تؤثر بالسلب في مواطنين أبرياء، مثل المنع من السفر أو تأخيره، أو الوضع تحت المراقبة الأمنية، أو عمليات اعتقال دون وجه حق.

أخلاقيات الخوارزميات

وتضمنت الوثيقة ما سمّته «أخلاقيات الخوارزميات»، أو الجوانب والأسس الأخلاقية التي يتعين أن يلتزم بها كل من ينشئ خوارزمية مخصصة لنظم وتقنيات الذكاء الاصطناعي.

وفي هذا السياق، قالت الوثيقة إن الذكاء الاصطناعي يحدث تغييرات عميقة في حياة البشر، ويقدم إمكانات هائلة عندما يتعلق الأمر بتحسين التعايش الاجتماعي والرفاه الشخصي، وزيادة القدرات البشرية، وتسهيل العديد من المهام التي يمكن القيام بها بشكل أكثر كفاءة وفاعلية. في المقابل، فإن كل هذه الأشياء ليست مضمونة النتائج، فالتحولات الجارية حالياً، ليست مجرد تغييرات كمية، بل لها تأثيرات نوعية وفي المضمون، لأنها تؤثر في الطريقة التي تنفذ بها هذه المهام، وعلى الطريقة التي نتصورها للواقع والطبيعة البشرية نفسها، لدرجة أنها يمكن أن تؤثر في عاداتنا العقلية والشخصية، ولذلك يتعين البحث عن التقنيات الجديدة وإنتاجها وفقاً لمعايير تجعلها تخدم «الأسرة البشرية» بأكملها، وتتجنب أشكال التمييز كافة، وتكون في مصلحة كل إنسان في صميمه، وتضع في اعتبارها الواقع المعقد لنظامنا البيئي، وتتميز بالطريقة التي يتعين أن تهتم بالكوكب الأرضي وتحميه.

المبادئ الـ 6

خلصت الوثيقة إلى ستة مبادئ، قالت إنها تمثل الأسس الأخلاقية المطلوبة في الذكاء الاصطناعي وأنظمة التعرف الى الوجوه.

المبدأ الأول هو «الشفافية والقابلية للتفسير»، بمعنى أن تكون هناك شفافية ووضوح في تصميم وبناء وتشغيل أنظمة الذكاء الاصطناعي، ليكون ما تقوم به قابلاً للشرح والتفسير والفهم من جانب المستخدمين.

أما المبدأ الثاني فيتمثل بـ«الشمولية»، أي أن تشمل أنظمة الذكاء الاصطناعي احتياجات جميع البشر، حتى يتمكن الجميع من الاستفادة منها، وتتوافر لهم أفضل الظروف الممكنة للتعبير عن أنفسهم حيالها.

ونص المبدأ الثالث على «المسؤولية»، بمعنى أن يتحلى كل من يشارك في تصميم وبناء وتشغيل وتطوير أنظمة الذكاء الاصطناعي بالمسؤولية والشفافية، ومراعاة مصالح الآخرين، وتحمّل نتائج تشغيل ونشر ما يصنعه من نظم. وشدد المبدأ الرابع على «الحياد»، أي أن يتم تصميم وبناء وتشغيل هذه النظم بطرق ومنهجيات وأدوات لا تعرف التحيز، وتحمي وتصون العدالة وكرامة الإنسان.

أما المبدأ الخامس فتمثل بـ«الموثوقية»، والمقصود به أن تكون أنظمة الذكاء الاصطناعي قادرة على العمل بصورة موثوق بها، من حيث المعالجات والعمليات والنتائج، بحيث يعتمد عليها، وعلى دقة نتائجها في العمل.

وتمثل المبدأ السادس بـ«الأمن والخصوصية»، أي قدرتها على العمل بصورة مؤمنة ضد عمليات الاختراق والتسلل والتلاعب من قبل الآخرين، وفي الوقت نفسه تحترم خصوصية المستخدمين ولا تنتهكها.


قيم العدالة والمساواة

يجب أن تتوخى أنظمة الذكاء الاصطناعي حماية قيم العدالة والمساواة، حتى لا يتعرض الأفراد للتمييز من قبل الخوارزميات، بسبب العرق أو اللون أو الجنس أو اللغة أو الدين أو الأصل القومي أو الاجتماعي أو الملكية أو الميلاد أو أي وضع آخر. ويجب أن ينعكس هذا الالتزام في سعي الذكاء الاصطناعي للعمل على ضمان النظم الغذائية المستدامة في المستقبل، وتطوير النظم الصحية، والوصول إلى مناهج تغطي تخصصات مختلفة في العلوم الإنسانية والعلوم التقنية، وأن يتم هذا عبر أساليب في متناول الجميع.

تويتر