سام ألتمان (2)

فيصل محمد الشمري

إن حماية النزاهة، لشركة تكنولوجية نموذجية تتمتع ببنية فريدة من نوعها، تتسبب في خلق تضارب وجودي أكبر من تضارب المصالح، فشركة (OpenAI) التي تأسست عام 2015 كمنظمة غير ربحية، تركز على أبحاث الذكاء الاصطناعي، أنشأت عام 2019، كياناً ربحياً، سمح للمستثمرين بضخ الأموال في (OpenAI)، وإمكانية تحقيق عائد عليها، مع تحديد سقف لها، ليعود الفائض للمنظمة غير الربحية، نظراً إلى حاجتها للموارد اللازمة لتطوير وإنشاء الذكاء العام الاصطناعي.

كما أن هذا التوجه يبين استحالة استدامة العلاقة (الأفلاطونية) بين البحث العلمي النزيه والربح المادي. فتمويل الأبحاث لأغراض علمية غالباً ما ينحرف الهدف منها عند الحاجة للمال، إن لم تكن هناك تشريعات وضوابط موجهة أقوى من النظام البحثي وتمنع الاحتكار والممارسات التجارية أو الأنشطة غير القانونية.

فمثلاً قد يعلم البعض أن أبحاث إحدى الشركات الطبية لصنع دواء للقلب تحوّلت لبيع سلعة تساعد بعض حالات مرضى العجز الجنسي.

هل لنا عبرة من ذلك؟

إن حوكمة استخدام البحث العلمي جزء من منظومة الحوكمة المطلوبة، ويمكن الاسترشاد بمشروع قانون تنظيم الذكاء الاصطناعي للاتحاد الأوروبي، حيث يعتمد نهجه على المخاطر لتنظيم الذكاء الاصطناعي في جوهره، ويصنف أنظمة الذكاء الاصطناعي إلى أربع فئات مختلفة من المخاطر اعتماداً على حالات استخدامها: المخاطر غير المقبولة، وعالية المخاطر، ومخاطر محدودة، والحد الأدنى أو عدم وجود مخاطر.

وعملية تحديد قواعد والتزامات الذكاء الاصطناعي بناء على مخاطره المحتملة ومستوى تأثيره أصبح ضرورة ملحة، وليس ترفاً يمكن تأجيله.

ونتساءل: هل نشهد قفزة في منظومة أبحاث وتمويل أبحاث الذكاء الاصطناعي بالتوازي مع النمو المتسارع لتطويره واستخداماته؟ ولتنظيم العلاقة التكاملية بين البحث والتطوير والاستخدام التجاري؟ ومنع تضارب المصالح؟

إن ظهور سام ألتمان آخر، لدينا أمر مهم، لكن يجب أن يكون بطريقة منظمة تفصل بين البحث غير الربحي، والتوجه الربحي وتضارب المصالح المتوقع.

هل نشهد اعتماد مسرّع وطني وصياغة لمقترحات قانونية وتشريعية صارمة وملزمة لتنظيم الذكاء الاصطناعي؟ نأمل ذلك.

مستشار إداري وتحول رقمي وخبير تميز مؤسسي معتمد

لقراءة مقالات سابقة للكاتب، يرجى النقر على اسمه. 

تويتر