Дослідження: Алгоритм, що є "упередженим проти чорношкірих" за прогнозами бідних рецидивів ув'язнених

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Алгоритми так само упереджені, як і люди, які їх створюють. Розслідування ProPublica виявили, що Northpointe, творці алгоритму, який намагається передбачити ймовірність вчинення ще однієї злочинності, передбачає, що чорні люди з більшою ймовірністю скоюють злочин після того, як вийдуть, ніж білі люди.

Алгоритм створює оцінку ризику для ув'язнених. Вона використовується по всій країні для керівництва датами виходу в'язниці. Після аналізу даних для більш ніж 7000 людей в Broward County, штат Флорида, реальність расистських алгоритмів зрозуміла: чорні обвинувачені майже вдвічі частіше, ніж білі обвинувачені, щоб отримати прогноз про скоєння іншого злочину.

Аналіз контролювався для змінних, таких як гендер і кримінальне тло. Тим не менш, чорні люди, як передбачалося, на 77 відсотків частіше скоюють насильницькі злочини в майбутньому, а 45 відсотків, ймовірно, скоюють будь-які подальші злочини. Також тривожним є те, що лише 20% прогнозів Нортпоінту про те, хто буде здійснювати майбутні насильницькі злочини, є точними.

Northpointe використовує 137 питань, щоб судити про потенціал людей, які вчинили злочин. Як повідомляє ProPublica, на запитаннях не ставиться питання про гонку. Однак деякі питання можуть бути пов'язані.

Приклади таких запитань: «Чи був коли-небудь один з ваших батьків відправлений до в'язниці чи в'язниці?» Та «Як часто ви вступали в бої під час навчання в школі?» Є також питання «так / немає», наприклад, «Голодна людина має право Інші фактори включають рівень освіти та чи є людина роботою.

ProPublica детально описала методи, якими вони користувалися та аналізували дані Northpointe в пояснювальній посаді, і Northpointe надіслав листа ProPublica про те, що компанія «не погоджується з тим, що результати їх аналізу або вимоги, зроблені на основі цього є правильними або що вони точно відображають результати застосування моделі ”.

Результати ProPublica, якщо не неймовірно дивні, викликають занепокоєння. Оцінки ризиків використовуються для розрахунку дострокового звільнення та визначення суми облігацій; вони навіть впливають на кримінальні вироки в дев'яти штатах.

Технологія не є кінцевим рішенням кожної проблеми, особливо якщо врахувати, що технологія є такою ж недосконалою, як і люди, які її створюють.

$config[ads_kvadrat] not found