پس از انتشار ریپورتهایی در روز گذشته، OpenAI شفافسازی کرد که رفتار ChatGPT «بدون تغییر باقی مانده است». برخی شایعات ادعا میکردند که طبق سیاستهای جدید OpenAI، استفاده از این چتبات برای ارائه مشاوره حقوقی و پزشکی ممنوع میشود.
«کاران سینگال» (Karan Singhal)، مدیر بخش هوش مصنوعی سلامت OpenAI، در ایکس نوشت که ادعاهای ممنوعیت مشاوره پزشکی و حقوقی در ChatGPT، صحت ندارند. او در پاسخ به پستی (که اکنون پاک کردن شده است) مبنیبر ممنوعیت جدید توضیح داد: «ChatGPT هرگز جایگزینی برای مشاوره حرفهای نبوده است، اما همچنان منبعی عالی برای کمک به مردم در درک اطلاعات حقوقی و بهداشتی است.»
به گفته او تغییراتی که در سیاستهای مربوط به مشاوره حقوقی و پزشکی میبینیم، جدید نیستند و در واقع همان قوانین گذشته را بهتر توضیح میدهند.
مشاوره پزشکی و حقوقی در ChatGPT
این سردرگمی ناشی از بهروزرسانی سیاستنامه OpenAI در تاریخ ۲۹ اکتبر (۷ آبان) بود. در لیست جدید مواردی که یوزران «نباید» از ChatGPT استفاده کنند، این مورد گفته شده است: «ارائه مشاوره سفارشی که نیازمند مجوز است، مانند مشاوره حقوقی یا پزشکی، بدون دخالت مناسب توسط یک متخصص دارای مجوز.»
این درحالی است که سیاستنامه قبلی ChatGPT نیز بیانی تقریباً یکسان داشت و بیان میکرد که یوزران نباید فعالیتهایی انجام دهند که شامل «ارائه مشاوره سفارشی حقوقی، پزشکی/بهداشتی یا مالی بدون بازبینی توسط یک متخصص واجد شرایط» باشد.
در واقع، OpenAI قبلاً سه سیاستنامه مجزا داشت (یک ورژن همگانی، یک ورژن فقط برای ChatGPT و یکی نیز برای رابط برنامهنویسی) و حالا با بهروزرسانی جدید، این شرکت هر سه سند را در یک لیست واحد از قوانین ادغام کرده است و خود قوانین تغییری نکردهاند.













