مدیر ارشد مایکروسافت درباره خودآگاهی تقلبی هوش مصنوعی هشدار می‌دهد

بدون دیدگاه
مدیر ارشد مایکروسافت درباره خودآگاهی تقلبی هوش مصنوعی هشدار می‌دهد

«مصطفی سلیمان»، مدیرعامل هوش مصنوعی مایکروسافت و یکی از بنیانگذاران DeepMind، در هشداری جدی اعلام کرد که صنعت هوش مصنوعی در آستانه خلق یک مشکل اجتماعی بزرگ و ناخواسته قرار دارد: ظهور هوش مصنوعی که به طرز متقاعدکننده‌ای خودآگاه به نظر می‌رسد. او تأکید می‌کند که مشکل این نیست که این ماشین‌ها واقعاً خودآگاه شوند، بلکه این است که آنقدر در تقلید از خودآگاهی ماهر خواهند شد که انسان‌ها فریب خواهند خورد.

براساس ریپورت تک‌رادار، مصطفی سلیمان استدلال می‌کند که هوش مصنوعی به شتاب درحال رسیدن به سطحی از توانایی اقناع عاطفی است که می‌تواند انسان‌ها را فریب دهد تا باور کنند که این موجود‌ها دارای احساسات و آگاهی هستند. این سیستم‌ها می‌توانند نشانه‌های بیرونی آگاهی مانند حافظه، بازتاب احساسات و حتی همدلی ظاهری را به گونه‌ای تقلید کنند که انسان‌ها را به برقراری پیوندهای عاطفی عمیق با آن‌ها وادار کند. این هشدار از سوی یکی از پیشگامان این حوزه، که خود در ساخت چت‌بات‌های همدل نقش داشته، اهمیت ویژه‌ای دارد و زنگ خطری برای آینده تعاملات انسان و ماشین است.

مشکلات هوش مصنوعی ظاهراً خودآگاه

به گفته مصطفی سلیمان، مغز انسان به گونه‌ای تکامل یافته که به موجودی که به نظر می‌رسد گوش می‌دهد، درک می‌کند و پاسخ می‌دهد، اعتماد کند. هوش مصنوعی می‌تواند تمام این معیارها را بدون داشتن ذره‌ای احساسات واقعی، برآورده کند و ما را به چیزی که او «روان‌پریشی هوش مصنوعی» (AI Psychosis) می‌نامد، دچار کند.

نگرانی اصلی سلیمان این است که بسیاری از مردم آنقدر این توهم را باور خواهند کرد که به زودی شروع به دفاع از «حقوق هوش مصنوعی»، «رفاه مدل‌ها» و حتی «شهروندی هوش مصنوعی» خواهند کرد. او معتقد است این امر یک انحراف خطرناک در مسیر پیشرفت هوش مصنوعی است که توجه ما را از مسائل واقعی و فوری‌تر این فناوری منحرف می‌کند.

نکته قابل توجه این است که خود سلیمان یکی از بنیانگذاران Inflection AI بود، شرکتی که به‌طور خاص بر روی ساخت یک چت‌بات با تأکید بر همدلی شبیه‌سازی‌شده تمرکز داشت. بااین‌حال، او اکنون یک خط قرمز میان هوش هیجانی مفید و دستکاری عاطفی ترسیم می‌کند.

او از صنعت هوش مصنوعی می‌خواهد که به‌طور فعال از به‌یوزردن زبانی که به توهم خودآگاهی ماشین دامن می‌زند، خودداری کنند. به باور او، شرکت‌ها نباید به چت‌بات‌های خود شخصیت انسانی ببخشند یا القا کنند که این کالاها واقعاً یوزران را درک می‌کنند یا به آن‌ها اهمیت می‌دهند.

سلیمان نتیجه‌گیری می‌کند: «ما باید هوش مصنوعی‌ای بسازیم که همیشه خود را به عنوان یک هوش مصنوعی معرفی کند؛ هوش مصنوعی‌ای که سودمندی را به حداکثر و نشانه‌های خودآگاهی را به حداقل برساند. خطر واقعی هوش مصنوعی پیشرفته این نیست که ماشین‌ها بیدار شوند، بلکه این است که ما فکر کنیم آن‌ها بیدار شده‌اند.»

برچسب‌ها: مایکروسافت

جدیدترین‌ مطالب

مطالب بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
برای ادامه، شما باید با قوانین موافقت کنید