افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده می‌کنند

بدون دیدگاه
افشاگری غافلگیرکننده: روانشناسان در جلسات درمان مخفیانه از هوش مصنوعی استفاده می‌کنند

با نفوذ روزافزون هوش مصنوعی در تمامی جنبه‌های زندگی، برخی از متخصصان بهداشت روان شروع به استفاده‌ی مخفیانه از این فناوری کرده‌اند. این اقدام باعث از بین‌رفتن اعتماد بیمارانی می‌شود که برای حساسیت و حفظ محرمانگی خود به این روان‌درمانگران مراجعه می‌کنند.

وب‌سایت ام‌آی‌تی تکنولوژی ریویو در ریپورتی مفصل نوشته است که روان‌درمانگران از ابزارهایی مانند ChatGPT و سایر مدل‌های زبانی بزرگ برای کارهایی مثل پاسخ به ایمیل‌ها و نوتیفیکیشن‌ها استفاده کرده‌اند و در یک مورد مشخص، حتی از هوش مصنوعی برای پیشنهاد پرسش‌هایی برای بیمار حین جلسه بهره برده‌اند.

بیماری ۳۱ ساله اهل لس‌آنجلس که در ریپورت تنها با نام دکلان معرفی شده است، می‌گوید حین جلسه‌ای مجازی، وقتی وصل شدن اینترنت دچار مشکل شد، پیشنهاد داده شد که هر دو دوربین خود را خاموش و صحبت کنند. اما به جای صفحه‌ی خالی معمولی، روان‌درمانگر به اشتباه صفحه‌ی خود را به اشتراک گذاشت و دکلان متوجه شد او از چت جی‌پی‌تی استفاده می‌کند. دکلان توضیح داد: «او حرف‌های من را وارد چت جی‌پی‌تی می‌کرد و سپس جواب‌ها را خلاصه یا انتخاب می‌کرد.»

دکلان با اینکه شوکه شده بود، حرفی نزد و به تماشای نحوه‌ی تحلیل حرف‌های خود توسط چت جی‌پی‌تی ادامه دادن داد. حتی او گاهی پاسخ‌های چت‌بات را تکرار می‌کرد و روان‌درمانگر آن را به‌عنوان نوعی پیشرفت در جلسه تلقی می‌کرد. دکلان می‌گوید: «من تبدیل به بهترین بیمار شدم؛ زیرا چت جی‌پی‌تی می‌گفت: ‹آیا فکر نمی‌کنید دیدگاه شما کمی سیاه و سفید است؟› و من می‌گفتم: شاید همین‌طور باشد و او می‌گفت: دقیقاً. مطمئنم این بهترین جلسه‌ی او بود.»

در جلسه‌ی بعدی، دکلان موضوع را مطرح کرد و روان‌درمانگر اعتراف کرد که از چت جی‌پی‌تی استفاده می‌کرد و شروع به گریه کرد. دکلان این تجربه را «مثل یک جدایی عجیب و ناخوشایند» توصیف کرد و گفت روان‌درمانگر مدعی شد که به دلیل کمبود ایده برای کمک به او از هوش مصنوعی استفاده کرده است. با این حال، او همچنان هزینه‌ی جلسه را دریافت کرد.

نویسنده‌ی دیگری به نام لوری کلارک نیز تجربه‌ی مشابهی داشته است. او پس از دریافت ایمیلی طولانی و بسیار مرتب‌تر از معمول، متوجه شد که احتمالاً روان‌درمانگرش از هوش مصنوعی برای تهیه‌ی پاسخ‌ها استفاده کرده است. او گفت: «در ابتدا نوتیفیکیشن دلگرم‌کننده به نظر می‌رسید، اما پس از بررسی کردن، فونت و سبک نوشتار مشکوک به نظر آمد.»

با افزایش افرادی که سراغ درمانگرهای به اصطلاح هوش مصنوعی می‌روند که حتی سم آلتمن، مدیرعامل اوپن‌ای‌آی می‌گوید به دلیل خطرت حریم خصوصی و احتمال ایجاد مشکلات روانی، توانایی جایگزینی متخصص واقعی را ندارند، مردم باید با اطمینان بتوانند تصمیم بگیرند که به متخصص واقعی سلامت روان مراجعه کنند.

استفاده‌ی مخفیانه از هوش مصنوعی، همان‌طور که در این داستان‌ها دیده می‌شود، نه تنها اعتماد و محرمانگی بیماران را به خطر می‌اندازد، بلکه ممکن است حرفه‌ی خود روان‌درمانگران را نیز در معرض خطر قرار دهد.

برچسب‌ها: ChatGPT, دوربین

جدیدترین‌ مطالب

مطالب بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
برای ادامه، شما باید با قوانین موافقت کنید