محققان Yale SOM با همکاری گوگل روش جدیدی را برای حذف سوگیری در نرم‌افزار‌های خودکارسازی تصمیم‌گیری پیشنهاد کرده اند.

به گزارش باشگاه خبرنگاران جوان، به نقل از insights.som.yale.edu، نرم‌افزار‌های خودکارسازی تصمیم‌گیری اغلب در مورد گروه‌های محروم تبعیض قائل می‌شوند. رویکرد جدید محققان Yale SOM می‌تواند به‌طور قابل‌توجهی سوگیری را کاهش دهد. سازمان‌ها برای اطلاع‌رسانی تصمیم‌گیری‌ها، معلوم شدن متقاضیان وام یا ارزیابی احتمال ارتکاب جرم به این الگوریتم‌ها تکیه می‌کنند. تحقیقات اخیر The Markup نشان می‌دهد وام دهندگان ۸۰ درصد تقاضای سیاهپوستان را رد می‌کنند. این کار تا حد زیادی به الگوریتم‌های رایج تایید وام مسکن نسبت داده می‌شود.

رویکرد Train then mask

استادیار بازاریابی Yale SOM و همکارانش مدل جدیدی را ابداع کردند. در سیستم پیشنهادی آنها، ویژگی‌های حساس مانند جنسیت یا نژاد گنجانده شده اما هنگام ارزیابی موارد جدید، آن ویژگی‌ها پوشانده می‌شوند. این رویکرد بدون تغییر در دقت، تبعیض را به میزان قابل توجهی کاهش می‌دهد. فرآیند پیش‌بینی در الگوریتم‌های یادگیری ماشینی در دو مرحله انجام می‌شود. ابتدا آموزش‌هایی به الگوریتم داده می‌شود. محققان باید رویکرد‌های جایگزینی برای کاهش تعصب در این سیستم‌ها بیابند. برای مثال افزایش امتیاز افراد گروه‌های محروم یا تلاش برای به حداکثر رساندن دقت پیش بینی‌ها. امین کرباسی دانشیار مهندسی برق و علوم کامپیوتر دانشگاه ییل و احسان کاظمی از گوگل در این پروژه همکاری کردند.

سوگیری الگوریتم‌ها

در مرحله دوم الگوریتم مجبور است هنگام مقایسه افراد فراتر از نژاد عمل کند. محققان این روش جلوگیری از سوگیری الگوریتم‌ها را Train then mask نامیدند. برخلاف بسیاری از روش‌ها، Train then mask روی گروه‌های محروم تاکید دارد. در عین حال تاکید می‌کند که با افراد جدا از ویژگی‌های شخصیتی یکسان رفتار شود. دانشمندان الگوریتم خود را در زمینه پیش‌بینی وضعیت درآمد یک فرد آزمایش کردند. نرم‌افزار ۸۲.۵ درصد وضعیت درآمد را به درستی پیش‌بینی کرد. از مزایای این رویکرد این است که از بی‌انصافی و تبعیض پنهان جلوگیری می‌کند.


بیشتر بخوانید


انتهای پیام/

اخبار پیشنهادی
تبادل نظر
آدرس ایمیل خود را با فرمت مناسب وارد نمایید.