بسبب «شات جي بي تي» وأخواته.. دراسات تحذر من «الضمور المعرفي»

أظهرت دراسات بحثية حديثة أن الاستخدام المتزايد لأدوات الذكاء الاصطناعي التوليدي، مثل روبوتات المحادثة، قد يحمل آثاراً سلبية على المهارات المعرفية للإنسان، كالتفكير النقدي وحل المشكلات. وجاءت هذه النتائج في وقت ينتشر فيه استخدام هذه التقنيات على نطاق واسع في المجالات التعليمية والمهنية.

وكشفت دراسة أجراها معهد ماساتشوستس للتكنولوجيا (MIT) أن الذين استخدموا «شات جي بي تي» لكتابة المقالات أظهروا نشاطاً أقل في شبكات الدماغ المرتبطة بالمعالجة المعرفية أثناء أداء المهام، كما واجهوا صعوبة أكبر في تذكر واستعادة محتوى مقالاتهم مقارنة بمن كتبوها بأنفسهم. وسجلت الدراسة نشاط أدمغة المشاركين باستخدام تخطيط كهربية الدماغ، ما أبرز ما وصفه الباحثون بـ«احتمال انخفاض مهارات التعلم».

بدورها، أشارت دراسة منفصلة أجرتها جامعة كارنيجي ميلون بالتعاون مع مايكروسوفت إلى أن الاعتماد المفرط على أدوات الذكاء الاصطناعي في العمل قد يؤدي إلى تراجع مهارات حل المشكلات بشكل مستقل، إذ وجدت أن ارتفاع مستوى الثقة في قدرة الأداة يرتبط بانخفاض مستوى التفكير النقدي لدى الموظفين، ما قد ينتج عنه «اعتماد مفرط على المدى الطويل».

وفي سياق تعليمي، أظهر استطلاع أجرته دار نشر جامعة أكسفورد أن ستة من كل 10 طلاب في المملكة المتحدة يشعرون بأن الذكاء الاصطناعي أثر سلبياً على مهاراتهم الدراسية. وفي الوقت ذاته، أقر تسعة من كل 10 طلاب بأنه ساعدهم في تطوير مهارة واحدة على الأقل، ما يخلق صورة معقدة حول تأثيره وفقاً لـ«بي بي سي». 

من جهتها، تعترف الشركات المطورة بهذه المخاوف. وتشير جاينا ديفاني، من شركة أوبن أيه أي المالكة لـ«شات جي بي تي»، إلى أن الأداة يجب أن تُستخدم كـ«معلم خصوصي» لتحفيز الفهم وليس كمجرد وسيلة للحصول على إجابات جاهزة، منبهة إلى أنه «لا ينبغي للطلاب استخدامها للاستعانة بمصادر خارجية في أعمالهم».

بالمقابل، يطالب خبراء مثل البروفيسور واين هولمز من جامعة كوليدج لندن بالمزيد من البحث الأكاديمي المستقل حول تأثير هذه الأدوات قبل تعميم استخدامها في التعليم. ويحذر من ظاهرة «الضمور المعرفي»، إذ تتراجع قدرات الشخص بعد الاعتماد على الذكاء الاصطناعي، لافتاً إلى أن الحصول على نتائج أفضل بمساعدة الذكاء الاصطناعي لا يعني بالضرورة «تعلماً أفضل».

كما يسلط الضوء على تجربة أطباء الأشعة، حيث أظهرت دراسة لجامعة هارفارد أن مساعدة الذكاء الاصطناعي حسّنت أداء بعض الأطباء بينما أضرت بأداء آخرين، ما يدعو إلى فهم أعمق لكيفية تفاعل البشر مع هذه التقنيات.

ويؤكد الخبراء على ضرورة وجود إرشادات واضحة وتعليمات نقدية حول الاستخدام المسؤول للذكاء الاصطناعي، مع الحاجة إلى موازنة بين الاستفادة من إمكاناته الهائلة في تحسين الكفاءة، والحفاظ في الوقت ذاته على المهارات الإنسانية الأساسية والتفكير النقدي المستقل.

 

تويتر