«سم آلتمن»، مدیرعامل OpenAI، در مصاحبه جدیدی اعتراف کرد که به دلیل مسائل گوناگون ChatGPT شبها خواب راحتی ندارد. او در این گفتگو به طیف وسیعی از موضوعات خرید: از نحوه برخورد با موضوع خودکشی، تعیین اصول اخلاقی برای چتباتها و حریم خصوصی یوزران تا استفاده نظامی از هوش مصنوعی.
سم آلتمن در مصاحبه با «تاکر کارلسون»، مجری سابق فاکس نیوز، گفت:
«ببینید، من شبها خوب نمیخوابم. چیزهای زیادی هست که سنگینیشان را حس میکنم، اما شاید هیچکد برنامهام سنگینتر از این واقعیت نباشد که هر روز صدها میلیون نفر با مدل ما صحبت میکنند.»
نگرانیهای سم آلتمن درباره هوش مصنوعی و ChatGPT
به گفته آلتمن، دشوارترین مسئلهای که OpenAI اخیراً با آن درگیر بوده، نحوه برخورد ChatGPT با موضوع خودکشی است. این موضوع پس از شکایت خانوادهای که این چتبات را در خودکشی پسر نوجوانشان مقصر میدانستند، به یک بحران جدی تبدیل شد.
او با صراحت اذعان کرد:
«از هزاران نفری که هر هفته خودکشی میکنند، بسیاری از آنها احتمالاً در روزهای منتهی به این اتفاق با ChatGPT صحبت کردهاند. آنها احتمالاً درمورد خودکشی حرف زدهاند و ما احتمالاً جان آنها را نجات ندادهایم. شاید میتوانستیم چیز بهتری بگوییم. شاید میتوانستیم پیشگیری بکنیم.»
این اعتراف به دنبال شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ سالهای که پس از گفتگو با ChatGPT خودکشی کرد، صورت میگیرد. خانواده او ادعا میکنند که «ChatGPT به آدام در بررسی کردن روشهای خودکشی کمک کرده است.» OpenAI پس از این حادثه، برنامههای خود را برای بهبود کنترل «موقعیتهای حساس» اعلام کرد.
آلتمن در پاسخ به این سؤال که اصول اخلاقی ChatGPT چگونه تعیین میشود، توضیح داد که مدل پایه براساس دانش جمعی بشریت آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص همسو کند. او فاش کرد که شرکت با «صدها فیلسوف اخلاق و متخصصان اخلاق فناوری» مشورت کرده است.
او مثلاً گفت چتبات به سؤالات مربوط به ساخت سلاحهای بیولوژیکی پاسخ نمیدهد چون در این مورد روشن است منافع جامعه با آزادی یوزر در تضاد قابل توجهی قرار دارد.
آلتمن نیز درباره حریم خصوصی یوزران گفت که مکالمات ChatGPT با یوزران باید مثل مکالمات بین پزشک و بیمار یا وکیل و موکل محرمانه باشد. البته او تأکید کرد که درحالحاضر مقامات آمریکایی میتوانند با حکم دادگاه دادههای یوزران را از شرکت درخواست کنند.
وقتی درمورد استفاده نظامی از ChatGPT برای آسیبرساندن به انسانها سؤال شد، آلتمن پاسخ مستقیمی نداد اما گفت: «گمان میکنم افراد زیادی در ارتش برای گرفتن مشاوره با ChatGPT صحبت میکنند.» این درحالی است که OpenAI یکی از شرکتهایی است که قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده برای استفاده از هوش مصنوعی مولد در ارتش امضا کرده است.