Алгоритм перевіряється в Сан-Франциско, щоб встановити попередню заставу

$config[ads_kvadrat] not found

unboxing turtles slime surprise toys learn colors

unboxing turtles slime surprise toys learn colors
Anonim

Система кримінальної юстиції знаходиться в розпалі алгоритмічної зміни. Близько 30 юрисдикцій - включаючи всі штати Арізона, Кентуккі і Нью-Джерсі, а також міста, такі як Сан-Франциско і Чикаго - тестували алгоритм, який встановлює вартість застави на основі загальнодержавних кримінальних даних. Не всі судді обов'язково готові взяти до уваги цифрові рекомендації.

Алгоритм був створений заснованими в Х'юстоні Лорою та Фондом Джона Арнольда, і називається оцінкою громадської безпеки, або PSA. Метою алгоритму є відхилення від встановлення застави за допомогою даних від 1,5 мільйонів досудових справ. У минулому, однак, алгоритми несли ті ж самі упередження людей, які їх створюють.

Дев'ять факторів входять до алгоритму, на веб-сайті фонду:

  • Чи є злочин насильницьким
  • Чи має особа на час арешту незаплановану справу
  • Чи має особа попереднє засудження за правопорушення
  • Чи має людина попереднє обвинувачення у скоєнні злочину
  • Чи має особа судимість за насильницький злочин
  • Вік людини під час арешту
  • Чи не вдалося вийти на досудове слухання протягом останніх двох років
  • Чи не вдалося вийти на досудове слухання більше двох років тому
  • Чи була людина раніше засуджена до позбавлення волі.

Алгоритм не враховує расу, стать, дохід, освіту, зайнятість або сусідство. Це, на думку фундаменту, робить PSA нейтральним.

Проте судді в Сан-Франциско не дотримувалися послідовно рекомендацій Хроніка Сан-Франциско звіти.

Сан-Франциско переїхав до використання алгоритму після того, як місто було подано до суду національною групою з прав людини, яка заявила, що непомірна застава завдає шкоди бідним, а не багатим. Багаті люди, які вчинили незначні злочини, купували свій вихід з в'язниці, а бідні люди, які не могли дозволити собі зайві суми під заставу, залишилися в камері утримування, поки не може бути запланований судовий розгляд.

PSA повинна була вирівняти ігрове поле, дивлячись на дані, а не безпосередній злочин. Алгоритм використовує історичні дані, щоб судити про те, наскільки ймовірно, що людина буде вчиняти інший злочин або уникати судового розгляду, якщо він буде порушений. Звіт меншин стиль. Якщо ймовірність висока, під заставу встановлюється вища, і навпаки.

Подібний алгоритм, створений компанією Northpointe, був використаний для керівництва датами випуску в'язнів. ProPublica опублікував результати розслідування, проведеного в травні, що виявило, що оцінки «оцінки ризику», запропоновані алгоритмом Northpointe, непропорційно передбачали, що чорні люди частіше скоюють ще один злочин, ніж білі люди після їх виходу. Лише 20 відсотків прогнозів Northpointe були точними.

З іншого боку, вдосконалені технології картографування та великі дані також допомагають правоохоронним органам виявляти злочинні точки злочину.

Алгоритм Фонду спрямований на те, щоб уникнути подібного ухилу, усунувши будь-які демографічні показники. Проте, чи дійсно він дійсно працює, не буде видно, поки судді не почнуть покладатися на алгоритми над прецедентом та інтуїцією.

$config[ads_kvadrat] not found