OpenAI امروز از دو مدل استدلالگر جدید رونمایی کرده که توسعهدهندگان میتوانند از آنها برای شناسایی و دستهبندی انواع آسیبهای آنلاین در سکوی نرمافزاریهای خود استفاده کنند.
به ریپورت CNBC، این مدلها با نامهای gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شدهاند که اندازه آنها هم مشخص است و ورژنهای تطبیقیافته و بهینهشده مدلهای gpt-oss هستند که OpenAI در آگوست ارائه داده بود.
معرفی مدلهای جدید OpenAI
این مدلها بهعنوان مدلهای وزن-باز (open-weight) عرضه شدهاند، به این معنا که پارامترهای مدل که کیفیت لاگآوتی و دقت پیشبینیها را تعیین میکنند، بهصورت عمومی در دسترس هستند. این نوع مدلها امکان شفافیت و کنترل بیشتر را برای یوزران فراهم میکنند، و اندکی با مدلهای متنباز که کد برنامه منبع آنها برای اصلاح و شخصیسازی در دسترس است، تفاوت دارند.
OpenAI اعلام کرده است که سازمانها میتوانند این مدلها را با سیاستها و نیازهای خاص خود تنظیم کنند. چون این مدلها قابلیت استدلال و توضیح روند تصمیمگیری خود را دارند، توسعهدهندگان میتوانند بهطور مستقیم دریابند که مدل چگونه به یک نتیجه مشخص رسیده است. برای مثال، یک سایت نقدوبررسی کردن کالاها میتواند از مدلهای gpt-oss-safeguard برای شناسایی بررسی کردنهای جعلی استفاده کند یا یک انجمن بازیهای ویدیویی میتواند پستهای مرتبط با تقلب و تخلفات را طبقهبندی کند.
این مدلها با همکاری دیسکورد، SafetyKit و ROOST که آخری یک سازمان فعال در زمینه ایجاد زیرساختهای ایمنی برای هوش مصنوعی است، پیشرفتهاند. درحالحاضر مدلها در حالت پیشنشان دادن تحقیقاتی ارائه شدهاند و OpenAI قصد دارد از نظر پژوهشگران و متخصصان ایمنی بهرهمند شود.
معرفی این مدلها میتواند به OpenAI کمک کند تا به برخی منتقدانش پیرامون تجاریسازی سریع و رشد بدون توجه به اخلاق و ایمنی هوش مصنوعی پاسخی داده باشد. ارزش OpenAI اکنون حدود ۵۰۰ میلیارد دلار است و چتبات ChatGPT بیش از ۸۰۰ میلیون یوزر فعال هفتگی دارد. روز سهشنبه OpenAI اعلام کرد که ساختار سازمانی خود را بازسازی کرده است.
یوزران میتوانند وزن مدلها را از Hugging Face دانلود کنند. «کامیل فرانسوا»، رئیس ROOST، در بیانیهای گفت:
«با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز باید همزمان پیشرفت کنند و برای همه قابل دسترس باشند.»













