امروزه استفاده از رایانه ها به تعیین وامی که واجد شرایط آن هستیم، شغلی که می گیریم و حتی اینکه چه کسی به زندان می رود کمک می کنند. وقتی نوبت به این تصمیمات بالقوه و تغییر دهنده زندگی می رسد آیا رایانه ها می توانند یک تصمیم منصفانه داشته باشند؟ در مطالعه‌ای که در ۲۹ سپتامبر در مجله الگوها منتشر شد محققان آلمانی نشان دادند که مردم فکر می‌کنند تصمیم یک رایانه می‌تواند به اندازه تصمیمی که توسط انسان گرفته می‌شود منصفانه باشد. روبن باخ، دانشمند علوم اجتماعی محاسباتی از دانشگاه مانهایم آلمان می‌گوید: بسیاری از بحث‌ها در مورد عدالت رایانه ها بر راه‌حل‌های فنی، مانند چگونگی اصلاح الگوریتم‌های ناعادلانه و نحوه منصفانه‌سازی سیستم‌ها متمرکز شده است. اما سوال ما این است که مردم چه چیزی را منصفانه می‌دانند؟ این فقط در مورد توسعه الگوریتم‌ها نیست. آنها باید توسط جامعه پذیرفته شوند و باورها را در دنیای واقعی برآورده کنند.

تصمیم‌گیری خودکار جایی که نتیجه‌گیری صرفاً توسط رایانه انجام می‌شود تجزیه و تحلیل مجموعه داده‌های بزرگ برای شناسایی الگوها برتری دارد. کامپیوترها اغلب در مقایسه با انسان‌ها که تعصبات آنها می‌تواند قضاوت‌ها را مخدوش کند عینی و خنثی در نظر گرفته می‌شوند. با این حال تعصب می‌تواند به سیستم‌های رایانه‌ای نفوذ کند، زیرا آنها از داده‌هایی یاد می‌گیرند که منعکس‌کننده الگوهای تبعیض آمیز در دنیای ما هستند. درک انصاف در تصمیمات رایانه ای و انسانی برای ساختن جامعه ای عادلانه تر بسیار مهم است.

برای درک اینکه مردم چه چیزی را در تصمیم گیری خودکار منصفانه می دانند محققان ۳۹۳۰ نفر را در آلمان مورد بررسی قرار دادند. محققان به آنها سناریوهای فرضی مربوط به بانک، شغل، زندان و سیستم های بیکاری را ارائه کردند. در این سناریوها، آنها موقعیت‌های مختلف را مقایسه کردند از جمله اینکه آیا تصمیم آنها به نتیجه مثبت منجر می شود یا منفی و این که داده‌های ارزیابی از کجا می‌آیند و چه کسی تصمیم نهایی را می‌گیرد انسان، رایانه یا هر دو آنها. کریستوف کرن، دانشمند علوم اجتماعی محاسباتی می گوید: همانطور که انتظار می رفت دیدیم که تصمیم گیری کاملاً خودکار مورد علاقه همه نیست. اما چیزی که جالب بود این است که وقتی شما نظارت انسانی بر تصمیم گیری خودکار دارید سطح انصاف درک شده شبیه به تصمیم گیری انسان محور می شود. نتایج نشان داد که افراد تصمیمی را عادلانه‌تر می دانند که انسان‌ها در آن نقش دارند.

مردم همچنین در هنگام تصمیم گیری های مربوط به سیستم عدالت کیفری یا چشم انداز شغلی که در آن ریسک ها بیشتر است نگرانی های بیشتری در مورد عدالت رایانه ها داشتند. شرکت‌کنندگان احتمالاً با مشاهده زیان‌های این کار که  بیشتر از سودشان بود تصمیم‌هایی را که می‌توانند به نتایج مثبت منجر شوند منصفانه‌تر از تصمیم‌های منفی می‌دانستند. در مقایسه با سیستم‌هایی که فقط به داده‌های مربوط به سناریو متکی هستند سیستم‌هایی که از داده‌های غیرمرتبط اضافی در اینترنت استفاده می‌کنند کمتر منصفانه در نظر گرفته می‌شوند که اهمیت شفافیت و حفظ حریم خصوصی داده‌ها را تایید می‌کند. نتایج با هم نشان داد که سیستم های تصمیم گیری خودکار باید به دقت طراحی شوند که نگرانی ها در مورد منصفانه بودن رای آنها بر طرف شود.

در حالی که موقعیت‌های فرضی در نظرسنجی ممکن است به طور کامل به دنیای واقعی شبیه نباشند، تیم در حال حاضر در حال بررسی گام‌های بعدی برای درک بهتر انصاف است. آنها برای درک اینکه چگونه افراد مختلف عدالت را تعریف می کنند قصد دارند مطالعاتشان را بیشتر کنند. آنها همچنین می‌خواهند از نظرسنجی‌های مشابه برای پرسیدن سؤالات بیشتر درباره ایده‌هایی مانند عدالت توزیعی، عادلانه بودن تخصیص منابع در میان جامعه استفاده کنند. باخ می‌گوید:  ما امیدواریم که افراد شاغل در صنعت بتوانند این نتایج را به نوعی به عنوان راهی برای فکر کردن به  توسعه و استقرار یک سیستم تصمیم‌گیری خودکار بررسی کرده و در نظر بگیرند. ما همچنین باید اطمینان حاصل کنیم که مردم درک می‌کنند که داده‌ها چگونه پردازش می‌شوند و چگونه تصمیم‌گیری‌ها بر اساس آنها گرفته می‌شود.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیست + 18 =