A.I. Науково-дослідний інститут показує, як створювати відповідальні алгоритми

$config[ads_kvadrat] not found

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net
Anonim

Науково-дослідний інститут AI Now опублікував у середу нові рекомендації щодо відповідального впровадження алгоритмів у публічній сфері.Їхня порада спрямована на робочу групу, створену в січні в Нью-Йоркській міській раді, яка вивчає питання використання урядом штучного інтелекту.

Звіт AI Now, Алгоритмічні оцінки впливу: до автоматизованої відповідальності у державних установах, вказує на необхідність прозорості, коли мова йде про розгортання алгоритмів. Алгоритми мають величезний вплив на наше повсякденне життя, але їх вплив іноді залишається непоміченим. Оскільки, наприклад, вони перетворюються на інфраструктуру соціальних медіа та відео платформ, можна легко забути, що програми часто визначають, який вміст надсилається користувачам Інтернету. Тільки тоді, коли щось піде не так, як відео теорії змови, що досягає вершини списку тенденцій YouTube, ми розглядаємо автоматизовані процедури прийняття рішень, які формують онлайн-досвід.

І алгоритми не обмежені інтернет-платформами. Державні установи дедалі більше покладаються на алгоритми, в областях, від освіти до кримінальної юстиції. В ідеальному світі, алгоритми видалили б упередженість людини від жорстких рішень, як, наприклад, визначення того, чи має бути засуджений умовно-дострокове звільнення. Однак на практиці алгоритми є настільки ж ефективними, як і люди, які їх створюють.

Наприклад, слідство від ProPublica показали, що алгоритми оцінки ризику, які використовуються в залах судових засідань, були расово упередженими. Що ще гірше, багато алгоритмів, що використовуються в державному секторі, є приватною власністю, а деякі компанії відмовляються ділитися кодом, що лежить в основі їхнього програмного забезпечення. Це робить неможливим зрозуміти, чому ці так звані «чорні скриньки» алгоритми повертають певні результати.

Одне з потенційних рішень, запропонованих AI зараз? Алгоритмічні оцінки впливу. Ці оцінки встановлюють норму повної прозорості, тобто державні установи, які використовують алгоритми, повинні оприлюднювати, коли і як вони їх використовують. "Саме ця вимога зробила б великий шлях до висвітлення того, які технології розгортаються, щоб обслуговувати громадськість, і де слід проводити дослідження з підзвітності", - йдеться в доповіді.

Політика відкритості навколо алгоритмів також відкриє двері для громадян, щоб вивчити і протестувати їх використання. Хочете, щоб алгоритм надав вам оцінку ризику на основі факторів, що не підпадають під ваш контроль, особливо коли цей бал допоможе визначити, чи йти в тюрму? Можливо, так, можливо, ні. У будь-якому випадку важливо точно знати, які змінні аналізуються алгоритмом.

Крім того, AI Now рекомендує встановлювати юридичний стандарт для людей, які лобіюють проти несправедливих алгоритмів.

Наприклад, якщо агентство не розкриває систем, які розумно потрапляють до сфери дії тих, хто приймає автоматизовані рішення, або якщо це дозволяє постачальникам приймати вимоги щодо комерційної таємниці за кордоном і, таким чином, блокує системний доступ, громадськість повинна мати можливість висловити занепокоєння органом нагляду, або безпосередньо в суді, якщо агентство відмовилося виправити ці проблеми після періоду громадського обговорення.

Рекомендації по суті зводяться до одного загального мандату: якщо ви використовуєте алгоритми, не будьте тіньовими.

Ознайомтеся з повним звітом тут.

$config[ads_kvadrat] not found