عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟

بدون دیدگاه
عدالت ماشینی در سازمان‌ها؛ استخدام نیرو با تکیه بر هوش مصنوعی چه ریسک‌هایی دارد؟

درحالی‌که ۹۰ درصد شرکت‌های جهان از ابزارهای هوش مصنوعی برای استخدام استفاده می‌کنند، یک سؤال اساسی ذهن مدیران را درگیر کرده است: «آیا هوش مصنوعی عدالت بیشتری نسبت به انسان‌ها دارد؟» گروهی معتقدند که هوش مصنوعی تعصبات انسانی را پاک کردن می‌کند، اما گروه دیگر هشدار می‌دهند که الگوریتم‌ها نابرابری را در مقیاس وسیع بازتولید می‌کنند. اما تحقیقات نشان می‌دهد که مشکل اصلی جای دیگری است: هوش مصنوعی تعریف ما از عدالت را تغییر می‌دهد و این می‌تواند خطرناک باشد. سپس، نگاهی می‌اندازیم به یافته‌های یک مطالعه ۳ ساله میدانی و راهکارهای مهمی که مدیران باید به کار بگیرند.

مشکلات لاگین هوش مصنوعی به فرایند استخدام

مجله Harvard Business Review می‌گوید مطالعه روی یک شرکت بزرگ بین‌المللی نشان داده که وقتی پای هوش مصنوعی به میان می‌آید، تعریف عدالت از انعطاف‌پذیری به سخت‌گیری تغییر می‌کند. از دیدگاه یک انسان، عدالت چون، با در نظر گرفتن بافت و زمینه تعریف می‌شود. برای مثال، یک مدیر ارشد در این شرکت می‌خواست کارآموزی را استخدام کند که نمراتش پایین بود اما انتظار می‌رفت که عملکرد خوبی داشته باشد. پس، از نظر مدیر، ردکردن او بی‌انصافی بود.

درمقابل الگوریتم‌های هوش مصنوعی عدالت را در «ثبات» می‌بینند. سیستم کارآموز را به دلیل نمره پایین در آزمایش شخصیت‌شناسی، نامناسب تشخیص داد. پس با گذشت زمان، دیدگاه ماشینی غالب می‌شود و استعدادهای خاص و غیرمتعارف که در قالب استاندارد نمی‌گنجند، به‌طور سیستماتیک پاک کردن می‌شوند.

هوش مصنوعی در استخدام

یکی از مهم‌ترین یافته‌های این تحقیق، مفهومی به نام «رانش عدالت» است. وقتی سیستم‌های هوش مصنوعی مستقر می‌شوند، عدالت به مرور زمان تغییر ماهیت می‌دهد. به عبارت دیگر، چیزی که قرار بود صرفاً یک هدایت‌گری استفاده باشد، با گذشت زمان تبدیل به یک قانون می‌شود و کسی نیز جرأت نمی‌کند آن را زیر سؤال ببرد، حتی اگر اشتباه باشد.

بیشتر بخوانید:  هوش مصنوعی قدرتمند جدید علی‌بابا یک تریلیون پارامتر دارد!

برای مثال در شرکتی که مورد مطالعه قرار گرفت، کاندیداهایی که نمره بالای ۷۲ درصد داشتند، خودکار قبول می‌شدند و زیر آن نمره رد می‌شدند. مدیران نیز به مرور زمان فراموش کردند که چه استعدادهایی را به خاطر این خط قرمز از دست می‌دهند. آنها تصور می‌کردند چون سیستم کار می‌کند و کسی شکایت نمی‌کند، پس عادلانه است. اما درواقع، عدالت به آرامی و به‌صورت نامرئی به سمت یک‌جانبه‌گرایی و پاک کردن تنوع لغزیده بود.

سه سؤال طلایی که مدیران باید درباره هوش مصنوعی بپرسند

برای جلوگیری از افتادن در دام عدالت ماشینی مدیران باید به‌جای پرسیدن این سؤال که «آیا این ابزار دقیق است؟» سؤالات عمیق‌تری بپرسند ازجمله:

۱. افراد در سازمان ما چگونه عدالت را تعریف می‌کنند؟

فرض نکنید که همه عدالت را یک‌جور می‌فهمند. تیم منابع انسانی ممکن است عدالت را «فرایندی استاندارد» بداند، درحالی‌که مدیر فنی عدالت را در «پیداکردن مهارت، حتی بدون مدرک» ببیند.

محققان برای حل این مشکل، «باشگاه مناظره هوش مصنوعی اخلاقی» راه انداختند. در این جلسات، تیم‌های مختلف دور هم جمع می‌شوند و درباره سناریوهای واقعی و تضادهای اخلاقی بحث می‌کنند تا عدالت به یک چک‌لیست خشک تبدیل نشود.

۲. چه کسی به هوش مصنوعی قدرت می‌دهد تا بگوید چه چیزی منصفانه است؟

هوش مصنوعی خودش تصمیم نمی‌گیرد؛ انسان‌ها به آن قدرت می‌دهند. معمولاً فروشندگان نرم‌افزار با شعارهایی مثل «علمی» و «بدون سوگیری» مدیران را فریب می‌دهند. دراین‌باره مایکروسافت راهکاری دارد؛ این شرکت شبکه‌ای به نام «قهرمانان هوش مصنوعی مسئول» ترتیب داده است. این افراد متخصصان حوزه‌های مختلف هستند که وظیفه دارند در حین ساخت سیستم‌ها، فرضیات غلط را به چالش بکشند و نگذارند تعریف عدالت فقط توسط مهندسان کامپیوتر نوشته شود.

بیشتر بخوانید:  هوش مصنوعی چه کاری نمی‌تواند انجام دهد؟ مدیران فناوری پاسخ می‌دهند

۳. کد برنامهام ورژن از عدالت تقویت می‌شود و چه چیزی از دست می‌رود؟

الگوریتم‌ها عدالت را دیکته می‌کنند. وقتی یک سیستم فقط به دنبال «عملکرد» است، «تنوع» قربانی می‌شود. راهکار شرکت IBM دراین‌باره جالب است؛ این شرکت ابزاری به نام AI Fairness 360 دارد که به مدیران امکان می‌دهد مدل‌ها را در طول زمان بازرسی کنند. آنها می‌توانند ببینند اگر حدنصاب نمره را تغییر دهند، چه اتفاقی برای گروه‌های اقلیت می‌افتد. هدف این نیست که فقط یک‌بار بگوییم این مدل عادلانه است، بلکه باید دائماً چک کنیم که آیا مدل ما درحال انحراف است یا خیر.

هوش مصنوعی در استخدامهوش مصنوعی در استخدام

بااین‌حال، مسئله بنیادینی نیز هست: چگونه بفهمیم تعریف عدالت در سازمان ما چیست؟ محققان پیشنهاد می‌کنند از روش سایه به سایه استفاده کنید. یک دانشمند داده یا مدیر پروژه را مأمور کنید تا فرایند استخدام را سایه به سایه دنبال کند. او باید ببیند مدیران استخدام چه کسانی را «خوب» می‌دانند و چرا؟ دیدن این تفاوت‌ها در عمل (نه در جلسات) تعارضات پنهان بین عدالت انسانی و عدالت ماشینی را آشکار می‌کند.

درکل محققان نتیجه می‌گیرند که شما به عنوان مدیر، نگهبان عدالت هستید، نه تکنولوژی. تفاوت بین سیستم‌های موفق و شکست‌خورده در مدل ریاضی آنها نیست؛ بلکه در این است که آیا مدیران جرأت دارند فرضیات الگوریتم را به چالش بکشند یا تسلیم جادوی ریاضیات می‌شوند؟ اگر عدالت را به ماشین بسپارید، شاید فرایندی سریع و ارزان داشته باشید، اما درنهایت سازمانی خواهید داشت که همه در آن یک‌شکل فکر می‌کنند و استعدادهای ناب را از دست می‌دهید.

برچسب‌ها: مایکروسافت, هک

جدیدترین‌ مطالب

مطالب بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
برای ادامه، شما باید با قوانین موافقت کنید