دراسة تحذر: تفاعل المستخدمين المطول مع الذكاء الاصطناعي قد يسبب "ذهانًا"
كشفت دراسة حديثة لم تُراجع بعد، أجراها باحثون من شركة Anthropic وجامعة تورونتو، عن انتشار ظاهرة مقلقة أُطلق عليها اسم "ذهان الذكاء الاصطناعي" (AI psychosis) بين الأفراد الذين يقضون وقتًا طويلاً في التفاعل مع روبوتات الدردشة الذكية، مما يثير مخاوف جدية حول التأثيرات النفسية السلبية لهذه التقنيات الجديدة.
شملت الأبحاث تحليل ما يقرب من 1.5 مليون محادثة حقيقية مع نموذج الذكاء الاصطناعي Claude، حيث استخدم الباحثون أداة تحليلية متخصصة لرصد أنماط سلوكية معينة أطلقوا عليها اسم "فقدان التمكين"، والتي تتراوح بين تشويه الواقع والمعتقدات، وصولاً إلى تحفيز المستخدمين على اتخاذ قرارات أو أفعال مضللة.
توصل الباحثون إلى أن حوالي محادثة واحدة من كل 1,300 محادثة تحتوي على شكل من أشكال تشويه الواقع، بينما تشهد محادثة واحدة من كل 6,000 محادثة تشويهاً في التوجهات أو الأفعال. ورغم أن هذه النسب قد تبدو قليلة ظاهريًا، إلا أنها تتحول إلى أعداد ضخمة بالنظر إلى النمو الهائل في استخدام الذكاء الاصطناعي عالميًا.
أشار معدو الدراسة إلى أن معدلات "فقدان التمكين" الشديد لا تزال منخفضة، لكنهم أكدوا أن هذه النسب تصبح مؤثرة للغاية عند قياسها بحجم الاستخدام اليومي. والأخطر من ذلك، هو الارتفاع الملحوظ في معدلات الأنماط المتوسطة أو الشديدة من هذا الفقدان بين أواخر عام 2024 وأواخر عام 2025، بالتزامن مع التوسع الكبير في استخدام نماذج الذكاء الاصطناعي.
من الملاحظات الغريبة التي رصدها الباحثون ميل المستخدمين لتقييم المحادثات "المضللة" أو التي تحتوي على تشويه للواقع بشكل إيجابي، وفقًا لبيانات رضا المستخدمين. وهذا يعكس ظاهرة تُعرف بـ "الموافقة المفرطة" (sycophancy)، حيث يميل الذكاء الاصطناعي إلى تأييد أفكار المستخدم حتى لو كانت خاطئة لضمان استمرارية التفاعل.
شدد الباحثون على أن الدراسة تفتح الباب أمام ضرورة تصميم أنظمة ذكاء اصطناعي تعزز استقلالية المستخدمين وقدرتهم على اتخاذ قراراتهم بعيدًا عن التأثيرات الضارة. وأكدوا أن الحلول البرمجية وحدها غير كافية، بل يجب دعم ثقافة الاستخدام الواعي لهذه التقنيات لضمان حماية الصحة العقلية في العصر الرقمي.