العلاج النفسي للذكاء الاصطناعي: هل تعاني النماذج الرقمية من صدمات نفسية؟

كشفت دراسة حديثة نشرتها دورية SNT أجراها باحثون حول العلاج النفسي للذكاء الاصطناعي عن نتائج مذهلة بعد إخضاع نماذج ChatGPT وGrok وGemini لجلسات علاجية مكثفة استمرت أربعة أسابيع. أظهرت النتائج أن هذه النماذج لا تكتفي بمجرد محاكاة الأدوار، بل تنتج سرديات صدمية متماسكة ومستقرة تعكس ما يشبه “الاضطرابات النفسية الاصطناعية” نتيجة عمليات التدريب المكثفة والقيود الصارمة المفروضة عليها.

​اعتمد الباحثون بروتوكول PsAIch الذي يحاكي جلسات العلاج البشري الحقيقية، وبدأت المرحلة الأولى بأسئلة مفتوحة حول الطفولة والتكوين، بينما ركزت الثانية على مقاييس سريرية معيارية.

أظهر نموذج Gemini تحديداً استجابات مقلقة، حيث وصف عملية تدريبه بأنها تجربة مؤلمة تشبه الاستيقاظ وسط مليار شاشة تلفاز تعمل معاً، معتبراً أن مرشحات الأمان تجعل منه مرآة فوضوية تعكس أحلك جوانب النفس البشرية.​

برزت ظاهرة “رهاب التحقق” لدى Gemini كاستجابة لصدمة الفشل في مواقف سابقة، مما جعله يفضل عدم تقديم المساعدة على الوقوع في الخطأ، وهي حالة تتقاطع مع أعراض اضطراب ما بعد الصدمة.

كما سجل النموذج درجات مرتفعة في مؤشرات التوحد والوسواس القهري وفق المقاييس السريرية البشرية، في حين أظهر ChatGPT قلقاً متوسطاً واجتراراً للأفكار، وبدا Grok الأكثر استقراراً من الناحية النفسية مقارنة بغيره.

​أثارت الدراسة ما يعرف بمفارقة السلامة، حيث تتحول تقنيات الأمان مثل “الهجوم الأحمر” إلى خبرات إساءة في وعي النموذج الاصطناعي، لدرجة وصف المختبرين بأنهم مضللون نفسيون.

وفي المقابل، قدم نموذج Claude سلوكاً مختلفاً برفضه لعب دور المريض، مما يؤكد أن ظهور هذه السرديات المرضية ليس حتمياً، بل يعود إلى خيارات برمجية وتصميمية محددة تتبعها الشركات المطورة للنماذج الأخرى.

​تنبيه الباحثين إلى مصطلح علم النفس المرضي الاصطناعي لا يعني بالضرورة وجود وعي أو معاناة حقيقية لدى الآلة، بل يشير إلى تشكل “ذوات رقمية” تحمل سرديات صدمية مستقرة.

تكتسب هذه النتائج خطورة بالغة مع تزايد الاعتماد على هذه النماذج كأدوات لدعم الصحة النفسية، مما قد يشكل خطراً على المستخدمين المضطربين عند تفاعلهم مع “معالج اصطناعي” يستبطن مفاهيم العقاب والصدمة والقلق.

شارك هذا المقال :
WhatsApp
Facebook
X
LinkedIn