Apple iPhone X не може розповісти, крім китайських облич, повернення коштів

$config[ads_kvadrat] not found

ПОХОРОНЫ APPLE: XIAOMI ВЫПУСТИЛ ЗАРЯДКИ ДЛЯ IPHONE 12 ЗА 5$

ПОХОРОНЫ APPLE: XIAOMI ВЫПУСТИЛ ЗАРЯДКИ ДЛЯ IPHONE 12 ЗА 5$
Anonim

Минулого тижня в Нанкіні, великому місті на сході Китаю, двічі на ім'я Янь була запропонована відшкодування від Apple за несправний iPhoneX, який її колега розблокував за допомогою технології розпізнавання обличчя. Обидві жінки - етнічні китайці.

Ян повідомив місцевим новинам, що вперше, коли це сталося, вона назвала гарячу лінію iPhone, але їй не повірили. Це не було, поки вона і її колега не поїхали до місцевого магазину Apple і не показали співробітникам магазину, що вони запропонували їй повернення грошей, і вона купила новий телефон, думаючи, що винна несправна камера.

Але другий телефон мав ту ж саму проблему, вважаючи, що це не була несправна камера, як пропонували працівники магазину, але проблема з самим програмним забезпеченням.

Це не перший випадок, коли програмне забезпечення для розпізнавання обличчя та інтелектуальний інтелектуальний ресурс, що стоїть за ним, мають проблеми з розпізнаванням не-білих облич.

У 2015 році Google Фото випадково позначила фотографію двох афроамериканців як горили, а в 2009 році комп'ютери HP http://www.youtube.com/watch?v=t4DT3tQqgRM) не змогли розпізнати та відстежувати чорні обличчя - без проблем з білими особами. У тому ж році програмне забезпечення камери Nikon було виявлено, що азіатське обличчя міг би міркувати.

Фотографії Google, ви все трахнули. Мій друг не горила. pic.twitter.com/SMkMCsNVX4

- Джекі (@jackyalcine) 29 червня 2015 року

"Це принципово проблема з даними", - писала Кейт Кроуфорд, головний дослідник корпорації Microsoft, а також співголова Симпозіуму Обами про суспільство і А.І. «Алгоритми вчаться, будучи годуються певними зображеннями, часто вибираються інженерами, і система будує модель світу, засновану на цих зображеннях. Якщо система навчається на фотографіях людей, які є в основному білими, їй буде важче розпізнавати білі обличчя ».

Джекі Алкін, програміст з Брукліна, чия фотографія була помилково позначена Google, погодилася. З його досвіду він сказав: "Цього можна було б уникнути з точним і більш повним класифікацією чорних людей".

Але расизм, який закодований в ІІ, навіть якщо він є ненавмисним, має наслідки, що виходять за рамки простого розпізнавання обличчя.

Розслідування ProPublica у 2016 році виявило, що чорні злочинці мають вдвічі більше шансів бути помилково позначені як такі, що можуть повторно вчиняти злочини, ніж білі злочинці, тоді як зростаюча тенденція «поліпшення інтелектуальної політики» використовує алгоритми для прогнозування злочинності і відповідно спрямовує поліцейські ресурси.

Проте спільноти меншин історично переоцінювалися, що призвело до того, що "це програмне забезпечення ризикує увічнити вже порочне коло", говорить Кроуфорд.

Повернувшись у Нанкін, Китай, Ян отримав друге повернення на свій другий iPhoneX. З місцевих новин незрозуміло, чи придбала вона третю.

Те, що було поставлено на карту, на цей раз, можливо, було лише одним споживачем. Але справа Яна була прикладом того, що технологічна індустрія потребує постійного дизайну з урахуванням різноманітності та інклюзивності.

$config[ads_kvadrat] not found