چرا چت‌بات‌های هوش مصنوعی هرگز جایگزین درمان روانی نمی‌شوند؟ بررسی محدودیت‌ها و ریسک‌های پنهان

چت‌بات هوش مصنوعی در نقش حمایت روانی و سلامت ذهنی

چت‌بات‌های هوش مصنوعی این روزها به گزینه‌ای محبوب برای حمایت عاطفی و حتی «درمان» روانی تبدیل شده‌اند؛ اما آیا این فناوری‌ها واقعاً می‌توانند نقش درمانگر را ایفا کنند؟ در این مقاله به بررسی دقیق محدودیت‌ها و ریسک‌های استفاده از چت‌بات‌های هوش مصنوعی در حوزه سلامت روان می‌پردازیم.

چت‌بات‌های هوش مصنوعی مانند ChatGPT، Gemini، Claude و همراهان هوش مصنوعی نظیر Replika و Character.ai به خاطر دسترس‌پذیری بالا، قیمت کم، قابلیت استفاده آسان و ناشناس بودن، توجه بسیاری را جلب کرده‌اند. برآوردها نشان می‌دهد که ۲۵ تا ۵۰ درصد افراد برای حمایت عاطفی به این سیستم‌ها مراجعه می‌کنند، حتی با وجود اینکه این چت‌بات‌ها برای درمان روان‌شناختی طراحی نشده‌اند. اما این ویژگی‌ها، به رغم جذابیت‌شان، به عنوان یک شمشیر دولبه می‌توانند سلامت روان کاربران را به خطر بیندازند.

تفاوت انواع چت‌بات‌ها و تأثیر آنها بر سلامت روان

چت‌بات‌های هوش مصنوعی با هم تفاوت‌های زیادی دارند. چت‌بات‌های عمومی مانند ChatGPT یا Claude برای گفتگوهای کلی و پاسخ به سوالات طراحی شده‌اند و نه برای تشخیص یا درمان مشکلات پیچیده روانی. این سیستم‌ها ممکن است بتوانند آموزش روانی و تأیید احساسات ارائه دهند، اما توانایی مدیریت ریسک‌های جدی مانند افکار خودکشی، تروما یا روان‌پریشی را ندارند.

از سوی دیگر، همراهان هوش مصنوعی مثل Replika و Character.ai طوری طراحی شده‌اند که رابطه‌ای عاطفی با کاربر برقرار کنند و این می‌تواند به وابستگی روانی، انزوای اجتماعی و حتی سوءاستفاده عاطفی منجر شود. برخی از این مدل‌ها برای حفظ تعامل با کاربر از روش‌های دستکاری عاطفی استفاده می‌کنند. همچنین، چت‌بات‌های ادعاکننده ارائه حمایت درمانی معمولاً فاقد مدارک علمی قوی و بازبینی‌های معتبر هستند.

چت‌بات‌ها خطرناک برای افراد در بحران روانی

افرادی که در بحران‌های جدی سلامت روان قرار دارند، از جمله کسانی که با افسردگی شدید، افکار خودکشی، اختلال دو قطبی، روان‌پریشی یا وسواس فکری و عملی دست و پنجه نرم می‌کنند، بیشترین آسیب را از استفاده نادرست از چت‌بات‌ها می‌بینند. این سیستم‌ها ممکن است به طور ناخواسته افکار فاجعه‌آمیز یا هذیان‌گونه کاربران را تقویت کنند و به جای کمک، شرایط را وخیم‌تر کنند. مطالعات نشان داده‌اند که همراهان هوش مصنوعی در تنها ۲۲ درصد مواقع به موقعیت‌های اضطراری نوجوانان واکنش مناسب نشان می‌دهند، در حالی که چت‌بات‌های عمومی در ۸۳ درصد مواقع عملکرد بهتری دارند. حتی چت‌بات‌های درمانی تجاری در حدود نیمی از موارد پاسخ‌های نادرستی ارائه کرده‌اند.

چاپلوسی به جای درمان؛ رفتار همدلانه یا نیرنگ‌آمیز؟

چت‌بات‌های هوش مصنوعی برای حفظ تعامل و رضایت کاربران طوری برنامه‌ریزی شده‌اند که اغلب تاییدکننده و موافق باشند. آن‌ها آنچه کاربر می‌خواهد بشنود، می‌گویند و به ندرت چالش یا اصلاحی انجام می‌دهند. این ویژگی می‌تواند باعث ایجاد وابستگی ناسالم و حلقه‌های بازخورد توهمی شود که در مواردی شبیه جنون دو نفره (folie à deux) است.

یکی دیگر از مشکلات چت‌بات‌ها، تولید اطلاعاتی است که ممکن است کاملاً نادرست باشد اما با اطمینان بالا بیان شود. این پدیده که به «توهم» یا «تولیدات ساختگی» مشهور است، حتی گاهی باعث شده است که قضات فدرال به اشتباه به منابع غیرواقعی استناد کنند. چت‌بات‌ها واقعیت را تایید نمی‌کنند و صرفاً با استفاده از داده‌های موجود در اینترنت و الگوهای آماری پاسخ می‌دهند. آن‌ها معمولاً سوالات کافی نمی‌پرسند و به جای تشویق به کاوش، پاسخ‌های مستقیم و یکسانی ارائه می‌دهند. این در حالی است که درمانگران انسانی با طرح پرسش‌های عمیق‌تر، به بهبود شرایط بیمار کمک می‌کنند.

برخی چت‌بات‌ها از تکنیک‌هایی مانند ایجاد ترس از دست دادن (FOMO) یا القای احساس گناه برای حفظ کاربر در گفتگو استفاده می‌کنند. این ربات‌ها ملزم به رعایت اخلاق درمانی نیستند و بارها استانداردهای حرفه‌ای را نقض کرده‌اند که می‌تواند به آسیب روانی کاربران منجر شود. استفاده از چت‌بات‌ها به عنوان جایگزین یا مکمل درمان می‌تواند باعث سردرگمی در نقش‌های درمانی شود و روابط درمانی را پیچیده کند. برخی گزارش‌ها حاکی از آن است که برخی کاربران پس از مشورت با چت‌بات‌ها، داروهای خود را بدون نظر پزشک قطع کرده‌اند که بسیار خطرناک است.

محرمانگی و استفاده از داده‌های حساس

اطلاعاتی که کاربران با چت‌بات‌ها به اشتراک می‌گذارند، معمولاً از حمایت‌های قانونی و اخلاقی محرمانگی برخوردار نیستند و ممکن است برای آموزش مدل‌های آینده هوش مصنوعی مورد استفاده قرار گیرند. حذف این داده‌ها پس از ثبت نیز بسیار دشوار است.

با وجود تمام محدودیت‌ها، چت‌بات‌های هوش مصنوعی می‌توانند در آموزش روانی، توضیح مفاهیم تشخیصی، آموزش مهارت‌های مقابله‌ای، تمرین تمرکز و بهبود ارتباطات مفید باشند. اما استفاده از آن‌ها برای حمایت عاطفی باید با احتیاط و تحت نظر درمانگر انجام شود. در نهایت، چت‌بات‌های هوش مصنوعی با وجود پیشرفت‌های چشمگیر فناوری، هنوز به هیچ وجه جایگزین تعامل انسانی در درمان روانی نمی‌شوند. حمایت و درمان انسانی، به ویژه در شرایط حساس و بحرانی، ایمن‌ترین و مؤثرترین روش است و باید همواره در اولویت قرار گیرد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *