لماذا على الروبوتات أن تتعلم قول كلمة "لا"

يوجد الكثير من الحالات التي يتلقى فيها الروبوت أوامر يمكن أن تؤدي إلى نتائج غير مرغوبة، فبعض الحالات لاتُحمد عقباها، حتى لو بدت الأوامر كذلك في البداية.

لنتخيل بأن روبوت سيارةٍ أُعطي أمراً بالرجوع للخلف مع وجود كلبٍ نائمٍ على الممر خلفه، أو أن روبوتاً مساعداً في المطبخ أُعطي أمراً بالتقدم نحو الطاهي وهو يحمل سكيناً، فمثل تلك الأوامر بسيطة، لكنّ عواقبها وخيمة.

كيف نستطيع نحن البشر أن نتجنب النتائج المؤذية لطاعة الروبوت العمياء؟ لو كان الالتفاف حول الكلب النائم مستحيلاً، فيجب على السيارة الروبوت رفضَ أمر الرجوع، وبالمثل، لو كان تجنب طعن الطاهي غير ممكنٍ، فيجب على روبوت المطبخ التوقف، أو عدم حمل السكينة أصلاً.

في كلتا الحالتين، يجب على الآلة ذاتية التحكم أن تكتشف الخطر المحتمل لفعلها، وأن تستجيب له إما بتجنب الخطر أو بعدم تنفيذ الأمر المسبّب له، فكيف يمكننا تعليم الروبوت متى يرفض الأمر ويقول "لا"؟

كيف يمكن للروبوت معرفة ماذا سيحدث لاحقاُ؟

إن تعليم الروبوت كيف ومتى ولماذا يرفض الأوامر، هو أمرٌ سهل القول، وصعب الفعل، إذ إن تحديد ماهية الأذى، أو المشاكل الناتجة عن فعلٍ ما، هو أكثرُ من مسألة النظر إلى النتائج المباشرة، على سبيل المثال، إن الكرة المرمية إلى خارج النافذة قد لا تسبب الأذى فيما إذا وقعت في الباحة الخلفية، لكنها قد تصل إلى أحد الشوارع المكتظة مسببةً انحراف أحد السيارات وتحطمها، تختلف النتائج باختلاف السياق.

من الصعب على روبوتات اليوم تحديدَ كون رمي الكرة أمراً صحيحاً، في حال اللعب مع طفل، أو خاطئاً، في حال رميها من النافذة أو في القمامة، والأمر أصعب بكثيرٍ فيما إذا كان الطفل يريد خداع الروبوت، وأمَرَه برمي الكرة إليه، ليتجنبها الطفل وتخرج من النافذة.

وإن فهم تلك المخاطر يتطلب الكثير من المعرفة السابقة، مثل معرفة بأن اللعب بالكرة أمام نافذةٍ مفتوحةٍ قد يؤدي إلى خروجها منها، إن ذلك الفهم لا يتطلب من الروبوت أن يتوقع النتائج المباشرة فحسب، بل عليه أن يتنبّأ بنوايا الإنسان الذي يعطي الأوامر.

لمعالجة تعقيدات الأوامر البشرية، صادقةً كانت أم لا، يحتاج الروبوت إلى التفكير في عواقب الأفعال، ومقارنة نتائجها مع المبادئ والأخلاق الإجتماعية، لمعرفة ما هو مسموح منها وما هو غير ذلك، كما رأينا في الأعلى، يمتلك الروبوت قاعدةً تقول: "إذا أُمِرتَ بشيءٍ يسبب الأذى، يمكنك ألّا تنفذ الأمر"، إن عملية الربط بين الأوامر والصلاحيات يسمح بوضوح للروبوت بالتفكير في جميع النتائج الممكنة للأمر، ثم اختيار قبول الأمر من عدمه.

عموماً، يجب على الروبوت عدم القيام بالأفعال المحظورة، وكذلك الأفعال المباحة غير المرغوبة، وبالتالي، تحتاج الروبوتات إلى طريقة لتمثيل القوانين ومبادئ الأخلاق وحتى آداب السلوك، من أجل تحديد فيما إذا كانت الأوامر أو حتى الأفعال مؤديةً إلى انتهاك تلك المبادئ والقوانين.

بينما تحتاج برامجنا إلى الكثير من أجل تحقيق ما نصبو إليه في الأمثلة السابقة، تحقّق أنظمتنا الحالية أحد أهم النقاط، وهي: "يجب على الروبوت أن يتمكن من مخالفة الأوامر من أجل أن يطيعها".

 

تويتر