امروزه استفاده از رایانه ها به تعیین وامی که واجد شرایط آن هستیم، شغلی که می گیریم و حتی اینکه چه کسی به زندان می رود کمک می کنند. وقتی نوبت به این تصمیمات بالقوه و تغییر دهنده زندگی می رسد آیا رایانه ها می توانند یک تصمیم منصفانه داشته باشند؟ در مطالعهای که در ۲۹ سپتامبر در مجله الگوها منتشر شد محققان آلمانی نشان دادند که مردم فکر میکنند تصمیم یک رایانه میتواند به اندازه تصمیمی که توسط انسان گرفته میشود منصفانه باشد. روبن باخ، دانشمند علوم اجتماعی محاسباتی از دانشگاه مانهایم آلمان میگوید: بسیاری از بحثها در مورد عدالت رایانه ها بر راهحلهای فنی، مانند چگونگی اصلاح الگوریتمهای ناعادلانه و نحوه منصفانهسازی سیستمها متمرکز شده است. اما سوال ما این است که مردم چه چیزی را منصفانه میدانند؟ این فقط در مورد توسعه الگوریتمها نیست. آنها باید توسط جامعه پذیرفته شوند و باورها را در دنیای واقعی برآورده کنند.
تصمیمگیری خودکار جایی که نتیجهگیری صرفاً توسط رایانه انجام میشود تجزیه و تحلیل مجموعه دادههای بزرگ برای شناسایی الگوها برتری دارد. کامپیوترها اغلب در مقایسه با انسانها که تعصبات آنها میتواند قضاوتها را مخدوش کند عینی و خنثی در نظر گرفته میشوند. با این حال تعصب میتواند به سیستمهای رایانهای نفوذ کند، زیرا آنها از دادههایی یاد میگیرند که منعکسکننده الگوهای تبعیض آمیز در دنیای ما هستند. درک انصاف در تصمیمات رایانه ای و انسانی برای ساختن جامعه ای عادلانه تر بسیار مهم است.
برای درک اینکه مردم چه چیزی را در تصمیم گیری خودکار منصفانه می دانند محققان ۳۹۳۰ نفر را در آلمان مورد بررسی قرار دادند. محققان به آنها سناریوهای فرضی مربوط به بانک، شغل، زندان و سیستم های بیکاری را ارائه کردند. در این سناریوها، آنها موقعیتهای مختلف را مقایسه کردند از جمله اینکه آیا تصمیم آنها به نتیجه مثبت منجر می شود یا منفی و این که دادههای ارزیابی از کجا میآیند و چه کسی تصمیم نهایی را میگیرد انسان، رایانه یا هر دو آنها. کریستوف کرن، دانشمند علوم اجتماعی محاسباتی می گوید: همانطور که انتظار می رفت دیدیم که تصمیم گیری کاملاً خودکار مورد علاقه همه نیست. اما چیزی که جالب بود این است که وقتی شما نظارت انسانی بر تصمیم گیری خودکار دارید سطح انصاف درک شده شبیه به تصمیم گیری انسان محور می شود. نتایج نشان داد که افراد تصمیمی را عادلانهتر می دانند که انسانها در آن نقش دارند.
مردم همچنین در هنگام تصمیم گیری های مربوط به سیستم عدالت کیفری یا چشم انداز شغلی که در آن ریسک ها بیشتر است نگرانی های بیشتری در مورد عدالت رایانه ها داشتند. شرکتکنندگان احتمالاً با مشاهده زیانهای این کار که بیشتر از سودشان بود تصمیمهایی را که میتوانند به نتایج مثبت منجر شوند منصفانهتر از تصمیمهای منفی میدانستند. در مقایسه با سیستمهایی که فقط به دادههای مربوط به سناریو متکی هستند سیستمهایی که از دادههای غیرمرتبط اضافی در اینترنت استفاده میکنند کمتر منصفانه در نظر گرفته میشوند که اهمیت شفافیت و حفظ حریم خصوصی دادهها را تایید میکند. نتایج با هم نشان داد که سیستم های تصمیم گیری خودکار باید به دقت طراحی شوند که نگرانی ها در مورد منصفانه بودن رای آنها بر طرف شود.
در حالی که موقعیتهای فرضی در نظرسنجی ممکن است به طور کامل به دنیای واقعی شبیه نباشند، تیم در حال حاضر در حال بررسی گامهای بعدی برای درک بهتر انصاف است. آنها برای درک اینکه چگونه افراد مختلف عدالت را تعریف می کنند قصد دارند مطالعاتشان را بیشتر کنند. آنها همچنین میخواهند از نظرسنجیهای مشابه برای پرسیدن سؤالات بیشتر درباره ایدههایی مانند عدالت توزیعی، عادلانه بودن تخصیص منابع در میان جامعه استفاده کنند. باخ میگوید: ما امیدواریم که افراد شاغل در صنعت بتوانند این نتایج را به نوعی به عنوان راهی برای فکر کردن به توسعه و استقرار یک سیستم تصمیمگیری خودکار بررسی کرده و در نظر بگیرند. ما همچنین باید اطمینان حاصل کنیم که مردم درک میکنند که دادهها چگونه پردازش میشوند و چگونه تصمیمگیریها بر اساس آنها گرفته میشود.