‏الدعم الفني (2)

فيصل محمد الشمري

إن مخاطر الذكاء الاصطناعي مُركّبة وعديدة، ومثل أي منظومة أو تقنية أو ابتكار، يصاحبها مخاطر كاملة وأخرى ظاهرة، وهو ما تطرقنا إليه جزئياً في مقالات سابقة، ومنها ما ارتبط بالخصوصية، لكن ما نشهده اليوم من حُمّى وتفشي عدوى متسارعة لتبني تطبيقات الذكاء الاصطناعي دون جاهزية ونضج رقمي متقدمة، سيصاحبه تضاعف احتمالات الخطر، وإمكانية الوقوع في الفشل، أو حتى التسبب بضرر قد لا يقبل الإصلاح.

إن تقسيم مستويات الدعم الفني الخمس شمل: «دعم الخبراء»، وهو ما يدفعنا أولاً للتعلم من أخطاء الآخرين، فالثقة المطلقة بالآلة بيّنت وهم هذا الأمر وفشله، وبسبب حوادث عدة تم ابتكار أنظمة أمان تفعّل آلياً أو يدوياً عند الخطر أو الحوادث، لكن إذا لم يكن ذلك جزءاً من صميم التصميم، فلن تنشأ هذه الخاصية.

ولعل أحد أحدث الأمثلة ثقتنا المطلقة بقدرات الذكاء الاصطناعي على المساهمة في الابتكار والتطوير، وتحسين البحث العلمي دون ضوابط، ومثال ذلك تبعات تسريب مهندسي «سامسونغ» البرمجة المصدرية عن طريق الخطأ بتحميلها إلى «ChatGPT».

ونتيجة لتبعات تحول المحتوى الابتكاري والمادة المطورة والمصنفة «سري» لجزء من مصادر والمحتوى المرجعي للبرمجيات، الأمر الذي يعد خرقاً للملكية الفكرية وتهديداً أمنياً واقتصادياً؛ اتخذت شركة «سامسونغ» إجراءات تحظر استخدام خدمات الذكاء الاصطناعي التوليدي (الذكاء الاصطناعي التوليدي Generative artificial intelligence فرع من فروع التعلم الآلي Machine Learning ويعنى بمجموعة الخوارزميات التي تستخدم لإنشاء محتوى جديد).

إن الأخطاء البشرية المتكررة عبر التاريخ تدفعنا للتطلع لمعجزة قد تكون التقنية أداتها، وإلا قد تتحول إلى لعنة تماثل توقعات إيلون ماسك: «النتيجة الكارثية» من دون تنظيم للذكاء الاصطناعي، إذ حذر مراراً وتكراراً من أن التطور غير الخاضع للرقابة للذكاء الاصطناعي يمكن أن يؤدي إلى «نتيجة كارثية» للبشرية.

إن ما نشهده اليوم من حوار بنّاء ومهم عن مخاطر الذكاء الاصطناعي، والحماقات البشرية المتواصلة بالتوجه للاعتماد المطلق دون قيود على التقنية، ودون إجراء اختبارات أمان كافية أو ممارسات وضوابط احترازية؛ يعكس مستويات نضج مُتدنٍ، واستهتار غير مسبوق قد يفوق ضرره خطر أسلحة الدمار الشامل، بل وانقراض البشرية، وهو الخطر الذي نوه إليه إيلون ماسك حين قال: إن «الذكاء الاصطناعي أكثر خطورة من سوء إدارة تصميم الطائرات أو صيانة الإنتاج أو الإنتاج السيئ للسيارة، على سبيل المثال»، وإنه ينطوي على إمكانية تدمير الحضارة، فيجب سن قوانين صارمة وإجراءات رادعة. هل سنرى ضوابط تقنن مخاطر الذكاء الاصطناعي، وتستمع لصوت العقل، وتحد من توجيه الذكاء الاصطناعي ليتحول إلى أداة قتل جبارة تدل على حماقات بشرية مستمرة؟

هذا ما نخشاه ونأمل منعه، فالدعم الفني يرتكز على الاستماع لصوت العقل ورأي الخبراء، وهو ما لم يحدث حتى هذه اللحظة، وإلا فإننا سنجد أنفسنا نسهم في «سيناريو» يتسبب في انقراض البشرية.

مستشار إداري وتحول رقمي وخبير تميز مؤسسي معتمد

لقراءة مقالات سابقة للكاتب، يرجى النقر على اسمه. 

تويتر