هوش مصنوعی می تواند وام های بانکی را عادلانه تر کند


خلاصه

بسیاری از مسسات مالی برای خنثی سازی تبعیض قبلی در زمینه وام و ارتقا a اقتصادی فراگیر ، به هوش مصنوعی روی آورده اند. اما بسیاری از وام دهندگان دریافته اند که موتورهای هوش مصنوعی بسیاری از تعصبات مشابه انسان را نشان می دهند. چگونه آنها می توانند با این مشکل کنار بیایند تا اطمینان حاصل شود که تعصب ناشی از گذشته در الگوریتم ها و راه حل های اعتباری در آینده نمی گنجد؟ نکته اصلی در ساخت سیستم های تحت مدیریت هوش مصنوعی است که برای ترویج دقت تاریخی کمتر اما انصاف بیشتر طراحی شده اند. این به معنای آموزش و آزمایش سیستم های هوش مصنوعی نه تنها در وام ها یا رهن های صادر شده در گذشته است ، بلکه در عوض در مورد چگونگی اعطای پول در دنیای عادلانه است. مجهز به آگاهی عمیق تر از تعصبات موجود در پشت داده ها و اهدافی که هم اهداف مالی و هم اجتماعی را منعکس می کند ، می توانیم مدل های هوش مصنوعی ایجاد کنیم که عملکرد خوبی داشته باشند و کار خوبی انجام دهند.

از آنجا که بانک ها به طور فزاینده ای از ابزارهای هوش مصنوعی برای تصمیم گیری در مورد وام استفاده می کنند ، باید در مورد یک واقعیت نامطلوب در مورد شیوه های اعطای وام تجدید نظر کنند: از نظر تاریخی ، این مورد مغرضانه بوده است ویژگی های محافظت شده، مانند نژاد ، جنسیت و گرایش جنسی. چنین تعصبی در انتخاب م institutionsسسات در مورد اینکه چه کسی اعتبار دریافت می کند و تحت چه شرایطی مشهود است. در این زمینه ، اتکا به الگوریتم های تصمیم گیری اعتباری به جای به تعویق انداختن قضاوت انسان ، یک راه حل آشکار به نظر می رسد. چه ماشین هایی فاقد گرما هستند ، مطمئناً عینیت را جبران می کنند ، درست است؟

متأسفانه آنچه در تئوری درست است در عمل ثابت نشده است. وام دهندگان اغلب در می یابند که موتورهای هوش مصنوعی بسیاری از تعصبات مشابه انسان را نشان می دهند. آنها اغلب از رژیم غذایی با داده های تصمیم گیری اعتباری مغرضانه ناشی از دهه های نابرابری در بازارهای مسکن و اعتبار تغذیه شده اند. بدون کنترل ، تهدید می کنند که تعصبات در تصمیمات مالی را تداوم می بخشند و شکاف ثروت جهان را طولانی می کنند.

مرکز پنجره

مشکل تعصب بومی است و هم خدمات مالی تازه کار و هم شرکت های موجود را تحت تأثیر قرار می دهد. یک مطالعه قابل توجه در سال 2018 در UC Berkeley نشان داد که اگرچه الگوریتم های fintech به طور متوسط ​​40 درصد کمتر از وام دهندگان از اقلیت های وام دریافت می کنند ، اما آنها همچنان به وام گیرندگان عضو طبقات محافظت شده نرخ بهره اضافی اعطا می کنند. سنگاپور ، انگلستان و برخی از کشورهای اروپایی اخیراً دستورالعمل هایی را صادر کرده اند که شرکت ها را ملزم به افزایش ارزش سهام در استفاده از هوش مصنوعی ، از جمله وام دهی می کند. بسیاری از جنبه های حقوق صاحبان سهام در وام ها در ایالات متحده تنظیم می شود ، اما بانک ها هنوز باید در مورد اینکه کدام شاخص های سهام باید اولویت بندی یا اولویت بندی شوند و نحوه برخورد با آنها باید انتخاب کنند.

بنابراین چگونه م institutionsسسات مالی می توانند برای معکوس کردن تبعیض گذشته به هوش مصنوعی روی آورند و در عوض اقتصاد فراگیرتری را ترویج دهند؟ در کار با شرکت های خدمات مالی ، متوجه می شویم که اصلی ترین نکته در ساخت سیستم های تحت مدیریت هوش مصنوعی است که برای ارتقا accuracy دقت تاریخی اما انصاف بیشتر طراحی شده اند. این به معنای آموزش و آزمایش آنها نه تنها در مورد وامها یا رهنهای صادر شده در گذشته است ، بلکه به جای چگونگی اعطای پول در دنیای عادلانه است.

مسئله این است که مردم اغلب نمی توانند بی عدالتی موجود در مجموعه داده های عظیمی را که سیستم های یادگیری ماشین تجزیه و تحلیل می کنند ، پیدا کنند. بنابراین وام دهندگان به طور فزاینده ای برای شناسایی ، پیش بینی و از بین بردن تعصبات در برابر طبقات محافظت شده که سهواً در الگوریتم ها گنجانده شده اند ، به هوش مصنوعی اعتماد می کنند.

اینگونه است:

قبل از ساختن مدل ، تعصب را از داده ها حذف کنید.

یک روش بصری برای حذف تعصب از تصمیم اعتبار ، از بین بردن تبعیض داده ها قبل از ایجاد مدل است. اما این کار به تنظیمات بیشتر از حذف متغیرهای ساده از داده هایی که به وضوح جنسیت یا قومیت را نشان می دهند ، نیاز دارد ، زیرا تعصب قبلی تأثیراتی دارد که در همه جا تغییر می کند. به عنوان مثال ، داده های مربوط به وام به زنان به طور کلی کمتر است ، زیرا موسسات مالی در دهه های اخیر نسبتاً به وام کمتری و کمتری به زنان نسبت به مردانی که دارای اعتبار اعتباری و درآمد معادل هستند ، تناسبی داده اند. این امر منجر به اشتباهات مکرر و نتیجه گیری نادرست برای نامزدهای کم نماینده و متفاوت زنان می شود. مداخلات دستی برای تلاش برای اصلاح سوگیری در داده ها نیز می تواند پیشگویی های خودکفا باشد ، زیرا اشتباهات یا فرضیات انجام شده می توانند تکرار و تقویت شوند.

برای جلوگیری از این امر ، بانک ها اکنون می توانند با استفاده از هوش مصنوعی الگوهای تبعیض تاریخی علیه زنان را در داده های خام شناسایی و اصلاح کنند ، و با تغییر عمدی این داده ها برای ایجاد یک احتمال مصنوعی و عادلانه ، تغییرات را در طول زمان جبران می کنند. برای تایید. به عنوان مثال ، با استفاده از هوش مصنوعی ، یک وام دهنده دریافت که از نظر تاریخی ، زنان برای تأیید وام های معادل باید 30 درصد بیشتر از مردان درآمد کسب کنند. این از AI برای تعادل معکوس داده هایی که در تهیه و آزمایش مدل تصمیم گیری وام AI با استفاده از تغییر توزیع زنان با تغییر سهم وام هایی که قبلاً به زنان داده شده بود ، استفاده می کند. – نزدیک به همان مقدار برای مردان با مشخصات ریسک معادل ، با حفظ رتبه نسبی. در نتیجه ارائه منصفانه تری از روش تصمیم گیری در مورد وام ، الگوریتم توسعه یافته قادر به تأیید وامها مطابق روشی بود که بانک می خواهد در آینده منصفانه تر اعتبار ارائه کند.

برای مدلهایی که تبعیض قائل می شوند اهداف بهتری را انتخاب کنید.

با این حال ، حتی پس از تصحیح داده ها ، بانک ها ممکن است برای جلوگیری از سوگیری یا ردیابی اثرات آن ، به یک لایه محافظتی اضافی نیاز داشته باشند. برای دستیابی به این هدف ، آنها یک الگوریتم را “تنظیم می کنند” به گونه ای که هدف آن نه تنها قرار دادن داده ها در تاریخ باشد ، بلکه همچنین برای دستیابی به نتایج خوب در برخی از انصافات است. آنها این کار را با وارد کردن یک پارامتر اضافی انجام می دهند که مجازات می کند اگر رفتار متفاوتی با کلاسهای محافظت شده داشته باشد ،

به عنوان مثال ، بانکی از طریق استفاده از هوش مصنوعی دریافت که بسیاری از متقاضیان جوان و بسیار پیر دسترسی مساوی به اعتبار ندارند. برای پیشبرد تصمیمات عادلانه تر در مورد وام ، بانک مدلی را توسعه داده است که برای به حداقل رساندن ارزیابی بی عدالتی به الگوریتم خود نیاز دارد. نتیجه بر اساس تفاوت بین نتایج در افراد در گروه های سنی مختلف با مشخصات خطر مشابه ، از جمله عبور از زیر گروه ها ، مانند زنان مسن تر است. با اتخاذ این روش ، مدل نهایی مبتنی بر هوش مصنوعی می تواند اختلاف ریاضی بین روش درمان افراد مشابه از گروه های مختلف را 20٪ کاهش دهد.

حریفی را تصور کنید که توسط هوش مصنوعی کنترل می شود.

حتی پس از اصلاح داده ها و مشروعیت بخشیدن به مدل ، هنوز می توان یک مدل ظاهراً خنثی داشت که تأثیرات متفاوتی بر طبقات محافظت شده و محافظت نشده داشته باشد. بنابراین بسیاری از م institutionsسسات مالی در حال برداشتن گام دیگری و ایجاد یک اقدام اضافی هستند ، یک مدل “رقابتی” که توسط هوش مصنوعی اجرا می شود تا آزمایش کند که آیا آنها می توانند تعصب برای طبقه محافظت شده را در تصمیمات گرفته شده توسط مدل اول پیش بینی کنند یا خیر. اگر متقاضی رقیب از نحوه برخورد اولین مدل اعتباری با متقاضی ، هرگونه ویژگی محافظت شده مانند نژاد ، قومیت ، مذهب ، جنسیت ، جنسیت ، از کارافتادگی ، وضعیت تأهل یا سن را با موفقیت کشف کند ، مدل اصلی اصلاح می شود.

به عنوان مثال ، مدل های مسابقه ای مبتنی بر هوش مصنوعی اغلب می توانند کد پستی اقلیت های قومی را از نتایج یک مدل اعتباری پیشنهادی تشخیص دهند. این امر اغلب می تواند به دلیل تعاملات گیج کننده با دستمزد کمتر مرتبط با کدپستی همپوشانی باشد. در حقیقت ، ما دیده ایم که مدل های رقابتی نشان می دهد که مدل اصلی احتمالاً محدودیت های کاربردی کمتری نسبت به کد پستی مربوط به اقلیت های قومی ارائه می دهد ، حتی اگر مدل اصلی یا داده های موجود نژاد یا قومیت را به عنوان ورودی برای تأیید نداشته باشند.

در گذشته ، با تلاش برای تغییر دستی پارامترهای مدل اصلی ، این مشکلات حل می شد. اما اکنون می توانیم از هوش مصنوعی به عنوان یک رویکرد تعدیل مجدد مدل خودکار برای افزایش تأثیر متغیرهای مساعدت کننده سهام و کاهش آنهایی که به تعصب کمک می کنند ، تا حدی بر اساس تجمیع بخش استفاده کنیم ، در حالی که مدل تحریک کننده در حال حاضر است با استفاده از کد پستی به عنوان پروکسی قادر به پیش بینی قومیت نیست. در یک مورد ، این منجر به مدلی شد که هنوز بین کد پستی تمایز قائل می شود ، اما اختلاف نرخ تصویب وام را برای برخی از گروه های قومی تا 70٪ کاهش می دهد.

البته ، م institutionsسسات مالی باید بر اساس این که آیا مردم تمایل و توانایی پرداخت بدهی را دارند ، وام عاقلانه بدهند. اما وام دهندگان اگر پروفایل خطر مشابهی داشته باشند ، خواه این تصمیم توسط شبکه های عصبی مصنوعی گرفته شده یا توسط مغز انسان ، نباید رفتار متفاوتی با مردم داشته باشند. کاهش تعصب فقط یک فعالیت مسئولانه اجتماعی نیست – بلکه به یک تجارت سودآورتر نیز منجر می شود. کارآفرینان اولیه در کاهش تعصب از طریق هوش مصنوعی علاوه بر انجام وظیفه اخلاقی خود ، از یک مزیت رقابتی واقعی برخوردار خواهند بود.

الگوریتم ها نمی توانند به ما بگویند که از کدام تعاریف عدالت استفاده کنیم یا از کدام گروه ها دفاع کنیم. سیستم های یادگیری ماشینی که به حال خودشان رها شوند ، می توانند تعصب هایی را که می خواهیم از بین ببریم تقویت کنند.

اما هوش مصنوعی نباید اثری از خود برجای بگذارد. مجهز به آگاهی عمیق تر از تعصبات موجود در پشت داده ها و اهدافی که هم اهداف مالی و هم اجتماعی را منعکس می کند ، می توانیم مدل هایی را بسازیم که عملکرد خوب و خوبی داشته باشند.

شواهد قابل اندازه گیری وجود دارد که تصمیمات وام بر اساس سیستم های یادگیری ماشین ، تأیید شده و تصحیح شده از طریق مراحل توضیح داده شده در بالا ، منصفانه تر از آنهایی است که قبلاً توسط بشر گرفته شده بود. هر بار با یک راه حل ، این سیستم ها دنیایی از نظر اقتصادی عادلانه تری ایجاد می کنند.


منبع: bighat-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>