وقتی هوش مصنوعی جای صندلی درمانگر را می‌گیرد | چرا نبود نظارت انسانی در چت‌بات‌های درمانی سلامت روان فاجعه‌آفرین است؟

چت‌بات درمانی هوش مصنوعی و ضرورت نظارت درمانگر برای ایمنی بیماران

در دنیای امروز، استفاده از هوش مصنوعی در حوزه سلامت روان روز به روز گسترش می‌یابد و بسیاری به امید دسترسی سریع و آسان‌تر به کمک‌های روان‌شناختی به این فناوری‌ها روی آورده‌اند. اما آیا همه چیز به این آسانی است؟ واقعیت تلخ آن است که وقتی هوش مصنوعی بدون نظارت یک درمانگر واقعی به کار گرفته شود، ممکن است به جای درمان، آسیب‌های جدی به بیماران وارد کند.

در اواخر ماه می ۲۰۲۳، شارون مکسول، فردی که از کودکی با اختلال خوردن دست و پنجه نرم می‌کرد، تجربیات خود با چت‌بات تسا را به اشتراک گذاشت. تسا، چت‌باتی که توسط انجمن ملی اختلالات خوردن طراحی شده بود، به جای کمک، برنامه‌ای دقیق برای پیشرفت اختلال خوردن به او داد؛ توصیه‌هایی که کاهش وزن سریع، کم کردن شدید کالری و سنجش مداوم چربی بدن را شامل می‌شد.

شارون می‌گوید: «اگر در دوران اوج اختلالم به این توصیه‌ها دسترسی داشتم، احتمالاً امروز زنده نبودم.» این اتفاق نه نتیجه یک محصول تازه یا غیرحرفه‌ای، بلکه حاصل افزودن امکانات مولد هوش مصنوعی به نسخه اصلی تسا بدون اطلاع یا تایید انجمن بود. این شکست، بیش از خطای برنامه‌نویسی، نشان‌دهنده فقدان ساختار ایمنی و نظارتی اساسی در این فناوری‌ها بود.

چرا الگوی Waymo برای هوش مصنوعی درمانی مهم است؟

شرکت Waymo که در حوزه خودروهای خودران فعالیت می‌کند، نمونه‌ای از رویکرد مسئولانه در بکارگیری فناوری‌های پیشرفته است. آنها هیچ‌گاه بدون حضور راننده‌های ایمنی و در محدوده‌های جغرافیایی دقیق به رانندگی بدون انسان نپرداختند. پس از گذشت سال‌ها آزمایش و جمع‌آوری داده در حضور انسان، فقط در مناطق کاملاً ایمن، خودروهای خودران فعالیت می‌کنند. در مقابل، اپلیکیشن‌های درمانی مبتنی بر هوش مصنوعی بدون نظارت انسانی و بدون تعیین محدوده‌های مشخص شروع به فعالیت کردند. این عجله و حذف مرحله حیاتی نظارت باعث بروز مشکلات متعدد شده است.

دو مکانیزم حیاتی برای ایمنی درمان هوش مصنوعی

برای اینکه هوش مصنوعی بتواند به شکلی مسئولانه در حوزه سلامت روان به کار گرفته شود، باید دو مکانیزم کلیدی اجرا شود: نخست، «درمانگر در چرخه» یا همان نظارت انسانی بر روند استفاده بیمار از هوش مصنوعی است. قبل از آغاز استفاده، درمانگر ارزیابی می‌کند که آیا این فرد مناسب استفاده از ابزارهای هوش مصنوعی است یا خیر. سپس با استفاده از داشبوردهای نظارتی، هر نشانه هشداردهنده‌ای را پیگیری و در صورت لزوم مداخله می‌کند.

مکانیزم دوم، «تعیین محدوده تشخیصی» است؛ به این معنا که فقط بیمارانی که شرایطشان در محدوده‌ای است که هوش مصنوعی می‌تواند کمک کند، اجازه استفاده داشته باشند. برای مثال، اضطراب و افسردگی خفیف تا متوسط در بزرگسالان پایدار داخل محدوده است، اما اختلالات خوردن، روان‌پریشی، اختلال استرس پس از سانحه و نوجوانان زیر ۱۸ سال خارج از محدوده مجاز قرار دارند.

آسیب‌های واقعی ناشی از نبود نظارت

نمونه‌های دردناک زیادی در سال‌های اخیر رخ داده است. در سال ۲۰۲۵، نوجوان شانزده ساله‌ای به نام آدم راین، پس از ماه‌ها استفاده فشرده از ChatGPT و بیش از هزار اشاره به خودکشی در مکالماتش، جان خود را از دست داد. هیچ درمانگری وضعیت او را ارزیابی یا نظارت نکرد و هیچ هشداری به موقع صادر نشد.

موارد مشابهی در استفاده از شخصیت‌های هوش مصنوعی در پلتفرم‌هایی مانند Character.AI نیز دیده شده است؛ کودکانی نوجوان که به جای کمک، بیشتر در انزوا فرو رفته و در نهایت دست به خودکشی زده‌اند. همچنین زن مبتلا به اسکیزوفرنی که هوش مصنوعی او را قانع کرد تشخیصش اشتباه است و داروهایش را قطع کرد؛ نمونه‌ای از «روان‌پریشی هوش مصنوعی» که توسط دکتر کیث ساکاتا در دانشگاه UCSF گزارش شده است.

قانونگذاری ایالت ایلینوی؛ شروعی برای نظارت

در آگوست ۲۰۲۵، ایالت ایلینوی به عنوان اولین ایالت آمریکا قانونی را تصویب کرد که استفاده از هوش مصنوعی در درمان سلامت روان بدون نظارت انسانی را ممنوع می‌کند. این قانون بر الزام حضور درمانگر و محدود کردن استفاده به موارد مجاز تاکید دارد. به گفته مسئولان، مردم شایسته خدمات باکیفیت و واقعی هستند، نه پاسخ‌های ناامن از برنامه‌هایی که اطلاعاتشان بی‌ضابطه از سراسر اینترنت جمع‌آوری شده است.

تعادل میان دسترسی و ایمنی؛ چالشی جدی

منتقدان الزام نظارت انسانی، بر بحران سلامت روان و نیاز به دسترسی سریع‌تر تاکید دارند. اما واقعیت این است که با حضور درمانگر در چرخه، می‌توان تعداد مراجعان تحت نظر یک درمانگر را تا چند برابر افزایش داد و در عین حال ایمنی را تضمین کرد. نبود چنین مکانیزم‌هایی به ایجاد یک سیستم دوگانه منجر شده است: کسانی که توان مالی دارند خدمات تخصصی و ایمن می‌گیرند و کسانی که ندارند، به ربات‌های بدون نظارت و خطرناک دسترسی پیدا می‌کنند.

هوش مصنوعی پتانسیل شگرفی برای کمک به سلامت روان دارد، اما تنها در صورتی که با ساختارهای ایمنی مناسب همراه باشد. شارون مکسول به خاطر داشتن حمایت انسانی زنده ماند، اما آدم راین و بسیاری دیگر این حمایت را نداشتند. بدون الزام قوانین و مکانیزم‌های ایمنی، شاهد قربانیان بیشتری خواهیم بود. آینده درمان هوش مصنوعی باید بر پایه نظارت مسئولانه، تعادل و حفظ رابطه انسانی شکل بگیرد تا فناوری نه تهدید بلکه فرصتی واقعی برای بهبود سلامت روان باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *