با نفوذ روزافزون هوش مصنوعی در تمامی جنبههای زندگی، برخی از متخصصان بهداشت روان شروع به استفادهی مخفیانه از این فناوری کردهاند. این اقدام باعث از بینرفتن اعتماد بیمارانی میشود که برای حساسیت و حفظ محرمانگی خود به این رواندرمانگران مراجعه میکنند.
وبسایت امآیتی تکنولوژی ریویو در ریپورتی مفصل نوشته است که رواندرمانگران از ابزارهایی مانند ChatGPT و سایر مدلهای زبانی بزرگ برای کارهایی مثل پاسخ به ایمیلها و نوتیفیکیشنها استفاده کردهاند و در یک مورد مشخص، حتی از هوش مصنوعی برای پیشنهاد پرسشهایی برای بیمار حین جلسه بهره بردهاند.
بیماری ۳۱ ساله اهل لسآنجلس که در ریپورت تنها با نام دکلان معرفی شده است، میگوید حین جلسهای مجازی، وقتی وصل شدن اینترنت دچار مشکل شد، پیشنهاد داده شد که هر دو دوربین خود را خاموش و صحبت کنند. اما به جای صفحهی خالی معمولی، رواندرمانگر به اشتباه صفحهی خود را به اشتراک گذاشت و دکلان متوجه شد او از چت جیپیتی استفاده میکند. دکلان توضیح داد: «او حرفهای من را وارد چت جیپیتی میکرد و سپس جوابها را خلاصه یا انتخاب میکرد.»
دکلان با اینکه شوکه شده بود، حرفی نزد و به تماشای نحوهی تحلیل حرفهای خود توسط چت جیپیتی ادامه دادن داد. حتی او گاهی پاسخهای چتبات را تکرار میکرد و رواندرمانگر آن را بهعنوان نوعی پیشرفت در جلسه تلقی میکرد. دکلان میگوید: «من تبدیل به بهترین بیمار شدم؛ زیرا چت جیپیتی میگفت: ‹آیا فکر نمیکنید دیدگاه شما کمی سیاه و سفید است؟› و من میگفتم: شاید همینطور باشد و او میگفت: دقیقاً. مطمئنم این بهترین جلسهی او بود.»
در جلسهی بعدی، دکلان موضوع را مطرح کرد و رواندرمانگر اعتراف کرد که از چت جیپیتی استفاده میکرد و شروع به گریه کرد. دکلان این تجربه را «مثل یک جدایی عجیب و ناخوشایند» توصیف کرد و گفت رواندرمانگر مدعی شد که به دلیل کمبود ایده برای کمک به او از هوش مصنوعی استفاده کرده است. با این حال، او همچنان هزینهی جلسه را دریافت کرد.
نویسندهی دیگری به نام لوری کلارک نیز تجربهی مشابهی داشته است. او پس از دریافت ایمیلی طولانی و بسیار مرتبتر از معمول، متوجه شد که احتمالاً رواندرمانگرش از هوش مصنوعی برای تهیهی پاسخها استفاده کرده است. او گفت: «در ابتدا نوتیفیکیشن دلگرمکننده به نظر میرسید، اما پس از بررسی کردن، فونت و سبک نوشتار مشکوک به نظر آمد.»
با افزایش افرادی که سراغ درمانگرهای به اصطلاح هوش مصنوعی میروند که حتی سم آلتمن، مدیرعامل اوپنایآی میگوید به دلیل خطرت حریم خصوصی و احتمال ایجاد مشکلات روانی، توانایی جایگزینی متخصص واقعی را ندارند، مردم باید با اطمینان بتوانند تصمیم بگیرند که به متخصص واقعی سلامت روان مراجعه کنند.
استفادهی مخفیانه از هوش مصنوعی، همانطور که در این داستانها دیده میشود، نه تنها اعتماد و محرمانگی بیماران را به خطر میاندازد، بلکه ممکن است حرفهی خود رواندرمانگران را نیز در معرض خطر قرار دهد.