«أنثروبك» أكدت رفضها استخدام تقنيتها في المراقبة الجماعية المحلية أو الأسلحة الفتاكة ذاتية التشغيل
توظيف الذكاء الاصطناعي في الحروب يثير الجدل بين الحكومة الأميركية وشركات التقنية
«أوبن إيه آي» أكدت أنها لا تتحكم في استخدام «البنتاغون» لمنتجاتها. رويترز
حذّر الأمين العام للأمم المتحدة، أنطونيو غوتيريش، من نتائج توظيف الذكاء الاصطناعي في الحروب، هذا الأسبوع، قائلاً: «لن نتحرك في المستقبل ببطء كما هي حالنا الآن»، مؤكداً الحاجة الملحة لتوظيف استخدام الذكاء الاصطناعي، إذ إن سرعة التطوّر التكنولوجي، إلى جانب الاضطرابات الجيوسياسية، تلغي الحدود بين الآراء النظرية والأحداث الواقعية.
ويتزامن الجدل السياسي حول قدرات الذكاء الاصطناعي للجيش الأميركي مع استخدامه غير المسبوق في الأزمة الإيرانية.
وأكدت شركة «أنثروبك» للذكاء الاصطناعي، أنها لم تتمكن من إزالة الضمانات التي تمنع وزارة الحرب الأميركية (البنتاغون) من استخدام تقنيتها في المراقبة الجماعية المحلية أو الأسلحة الفتاكة ذاتية التشغيل.
وأعلن «البنتاغون» أنه لا يرغب في مثل هذه الاستخدامات، لكنه أكد أن مثل هذه القرارات لا ينبغي اتخاذها من قبل الشركات، والغريب أن الإدارة لم تكتفِ بفصل «أنثروبك»، بل أدرجتها أيضاً على القائمة السوداء باعتبارها تُشكل خطراً على سلسلة التوريد.
وتدخلت شركة أبحاث وتطوير الذكاء الاصطناعي «أوبن إيه آي»، مؤكدة التزامها بالخطوط الحمراء التي حددتها «أنثروبك»، ومع ذلك، وفي ردّ، كان مقتصراً داخل الشركة فقط، على ردود فعل المستخدمين والموظفين الغاضبة، اعترف رئيسها التنفيذي، سام ألتمان، بأن الشركة لا تتحكم في استخدام البنتاغون لمنتجاتها، وأن طريقة إدارة الاتفاق مع وزارة الحرب الأميركية، جعلت «أوبن إيه آي» تبدو «انتهازية وبحاجة إلى مزيد من الإتقان».
لكن المديرة التنفيذية لمنظمة «أوقفوا الروبوتات القاتلة» التي تقوم بحملات من أجل سيطرة البشر على استخدام القوة، نيكول فان رويجين، حذّرت قائلة: «لا تتوقف القضية على ما إذا كانت هذه الأسلحة سيتم استخدامها أم لا، لكن في كيفية تغيير أنظمتها السابقة بالفعل لطريقة خوض الحروب، إذ إن سيطرة الإنسان تصبح ثانوية أو مجرد إجراء شكلي».
وقد بدأ هذا التغير الجذري حالياً، وعلى الرغم من الجدل الدائر حول الموضوع، تحدث البعض عن أن شركة «أنثروبك» قد سهلت الهجمات الواسعة النطاق والمتصاعدة في هذه الحرب والتي تودي بحياة الكثيرين.
وصرح خبراء لصحيفة «الغارديان» هذا الأسبوع، بالقول إن «هذا العصر الذي نعيش فيه الآن هو عصر القصف، أسرع من سرعة التفكير، حيث يقوم الذكاء الاصطناعي بتحديد الأهداف وترتيب أولوياتها، واقتراح الأسلحة، وتقييم الأسس القانونية للضربة».
ولا يُعد الذكاء الاصطناعي هو المسؤول الأساسي عن سقوط ضحايا مدنيين، أو أخطاء عسكرية، أو الإفلات من العقاب، بل يظل البشر هم المسؤولون عنها في نهاية المطاف، لأن الذكاء الاصطناعي لن يعمل لوحده دون البشر الذين يبدؤون الحروب دون التفكير في الضحايا التي يمكن أن تقع نتيجة ما يفعلونه.
لكن، حتى دون التطرق إلى مسائل عدم دقة الذكاء الاصطناعي وتحيزاته، فإن آثاره واضحة لمستخدميه، وقال أحد العسكريين إن «الأهداف كثيرة، ولا يستغرق كل هدف إلا بضعة ثوانٍ حتى يتم قصفه»، مضيفاً أنه شعر بأنه ليس له أي فائدة تذكر، لأن الذكاء الاصطناعي كان يقوم بالعملية برمتها، وتم تسهيل عمليات القتل الجماعي بكل معنى الكلمة، مع مزيد من الابتعاد عن الشعور الأخلاقي والعاطفي، وتراجع المساءلة.
ويُعد الإشراف الديمقراطي والقيود متعددة الأطراف أمراً بالغ الأهمية، بدلاً من ترك القرارات لشركات تصنيع الأسلحة ووزارات الدفاع.
وبينما الحرب محتدمة، والقصف على أشده بين الطرفين في الحرب الدائرة في إيران، اجتمعت الدول في جنيف لمناقشة أنظمة الأسلحة الفتاكة ذاتية التشغيل، ومن شأن مسودة النص التي ناقشوها تشكيل أساس متين لمعاهدة تشتد حاجة البشرية إليها أكثر من أي وقت مضى.
وترغب معظم الحكومات في الحصول على توجيهات واضحة بشأن الاستخدام العسكري للذكاء الاصطناعي، ولكن أكبر منفذي الحروب هم من يقاومون ذلك، على الرغم من وجودهم على الأقل في دائرة صنع القرار، ومن المؤسف أن شدة وتيرة الحروب التي يقودها الذكاء الاصطناعي قد يفسرها من يقومون بها وفق ما يرونه مناسباً لهم، فقد يفسر البعض أن انخفاض شدة وتيرة الحرب والقصف أنه بمثابة تسليم زمام الأمور للخصوم، ومع ذلك، وكما يدرك العاملون في مجال التكنولوجيا والمسؤولون العسكريون أنفسهم، فإن مخاطر التوسع غير المنضبط أكبر بكثير. عن «الغارديان»
• ترغب معظم الحكومات في الحصول على توجيهات واضحة بشأن الاستخدام العسكري للذكاء الاصطناعي، لكن أكبر منفذي الحروب هم من يقاومون ذلك، على الرغم من وجودهم على الأقل في دائرة صنع القرار.
تابعوا آخر أخبارنا المحلية والرياضية وآخر المستجدات السياسية والإقتصادية عبر Google news