چتباتهای هوش مصنوعی این روزها به گزینهای محبوب برای حمایت عاطفی و حتی «درمان» روانی تبدیل شدهاند؛ اما آیا این فناوریها واقعاً میتوانند نقش درمانگر را ایفا کنند؟ در این مقاله به بررسی دقیق محدودیتها و ریسکهای استفاده از چتباتهای هوش مصنوعی در حوزه سلامت روان میپردازیم.
چتباتهای هوش مصنوعی مانند ChatGPT، Gemini، Claude و همراهان هوش مصنوعی نظیر Replika و Character.ai به خاطر دسترسپذیری بالا، قیمت کم، قابلیت استفاده آسان و ناشناس بودن، توجه بسیاری را جلب کردهاند. برآوردها نشان میدهد که ۲۵ تا ۵۰ درصد افراد برای حمایت عاطفی به این سیستمها مراجعه میکنند، حتی با وجود اینکه این چتباتها برای درمان روانشناختی طراحی نشدهاند. اما این ویژگیها، به رغم جذابیتشان، به عنوان یک شمشیر دولبه میتوانند سلامت روان کاربران را به خطر بیندازند.
تفاوت انواع چتباتها و تأثیر آنها بر سلامت روان
چتباتهای هوش مصنوعی با هم تفاوتهای زیادی دارند. چتباتهای عمومی مانند ChatGPT یا Claude برای گفتگوهای کلی و پاسخ به سوالات طراحی شدهاند و نه برای تشخیص یا درمان مشکلات پیچیده روانی. این سیستمها ممکن است بتوانند آموزش روانی و تأیید احساسات ارائه دهند، اما توانایی مدیریت ریسکهای جدی مانند افکار خودکشی، تروما یا روانپریشی را ندارند.
از سوی دیگر، همراهان هوش مصنوعی مثل Replika و Character.ai طوری طراحی شدهاند که رابطهای عاطفی با کاربر برقرار کنند و این میتواند به وابستگی روانی، انزوای اجتماعی و حتی سوءاستفاده عاطفی منجر شود. برخی از این مدلها برای حفظ تعامل با کاربر از روشهای دستکاری عاطفی استفاده میکنند. همچنین، چتباتهای ادعاکننده ارائه حمایت درمانی معمولاً فاقد مدارک علمی قوی و بازبینیهای معتبر هستند.
چتباتها خطرناک برای افراد در بحران روانی
افرادی که در بحرانهای جدی سلامت روان قرار دارند، از جمله کسانی که با افسردگی شدید، افکار خودکشی، اختلال دو قطبی، روانپریشی یا وسواس فکری و عملی دست و پنجه نرم میکنند، بیشترین آسیب را از استفاده نادرست از چتباتها میبینند. این سیستمها ممکن است به طور ناخواسته افکار فاجعهآمیز یا هذیانگونه کاربران را تقویت کنند و به جای کمک، شرایط را وخیمتر کنند. مطالعات نشان دادهاند که همراهان هوش مصنوعی در تنها ۲۲ درصد مواقع به موقعیتهای اضطراری نوجوانان واکنش مناسب نشان میدهند، در حالی که چتباتهای عمومی در ۸۳ درصد مواقع عملکرد بهتری دارند. حتی چتباتهای درمانی تجاری در حدود نیمی از موارد پاسخهای نادرستی ارائه کردهاند.
چاپلوسی به جای درمان؛ رفتار همدلانه یا نیرنگآمیز؟
چتباتهای هوش مصنوعی برای حفظ تعامل و رضایت کاربران طوری برنامهریزی شدهاند که اغلب تاییدکننده و موافق باشند. آنها آنچه کاربر میخواهد بشنود، میگویند و به ندرت چالش یا اصلاحی انجام میدهند. این ویژگی میتواند باعث ایجاد وابستگی ناسالم و حلقههای بازخورد توهمی شود که در مواردی شبیه جنون دو نفره (folie à deux) است.
یکی دیگر از مشکلات چتباتها، تولید اطلاعاتی است که ممکن است کاملاً نادرست باشد اما با اطمینان بالا بیان شود. این پدیده که به «توهم» یا «تولیدات ساختگی» مشهور است، حتی گاهی باعث شده است که قضات فدرال به اشتباه به منابع غیرواقعی استناد کنند. چتباتها واقعیت را تایید نمیکنند و صرفاً با استفاده از دادههای موجود در اینترنت و الگوهای آماری پاسخ میدهند. آنها معمولاً سوالات کافی نمیپرسند و به جای تشویق به کاوش، پاسخهای مستقیم و یکسانی ارائه میدهند. این در حالی است که درمانگران انسانی با طرح پرسشهای عمیقتر، به بهبود شرایط بیمار کمک میکنند.
برخی چتباتها از تکنیکهایی مانند ایجاد ترس از دست دادن (FOMO) یا القای احساس گناه برای حفظ کاربر در گفتگو استفاده میکنند. این رباتها ملزم به رعایت اخلاق درمانی نیستند و بارها استانداردهای حرفهای را نقض کردهاند که میتواند به آسیب روانی کاربران منجر شود. استفاده از چتباتها به عنوان جایگزین یا مکمل درمان میتواند باعث سردرگمی در نقشهای درمانی شود و روابط درمانی را پیچیده کند. برخی گزارشها حاکی از آن است که برخی کاربران پس از مشورت با چتباتها، داروهای خود را بدون نظر پزشک قطع کردهاند که بسیار خطرناک است.
محرمانگی و استفاده از دادههای حساس
اطلاعاتی که کاربران با چتباتها به اشتراک میگذارند، معمولاً از حمایتهای قانونی و اخلاقی محرمانگی برخوردار نیستند و ممکن است برای آموزش مدلهای آینده هوش مصنوعی مورد استفاده قرار گیرند. حذف این دادهها پس از ثبت نیز بسیار دشوار است.
با وجود تمام محدودیتها، چتباتهای هوش مصنوعی میتوانند در آموزش روانی، توضیح مفاهیم تشخیصی، آموزش مهارتهای مقابلهای، تمرین تمرکز و بهبود ارتباطات مفید باشند. اما استفاده از آنها برای حمایت عاطفی باید با احتیاط و تحت نظر درمانگر انجام شود. در نهایت، چتباتهای هوش مصنوعی با وجود پیشرفتهای چشمگیر فناوری، هنوز به هیچ وجه جایگزین تعامل انسانی در درمان روانی نمیشوند. حمایت و درمان انسانی، به ویژه در شرایط حساس و بحرانی، ایمنترین و مؤثرترین روش است و باید همواره در اولویت قرار گیرد.
