Пікселізовані зображення не є відповідними для розпізнавання обличчя Корнелла Технологія А.І.

$config[ads_kvadrat] not found

Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия)

Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия)
Anonim

Три дослідники з Cornell Tech в Нью-Йорку виявили, що розмиті і нерівні зображення не відповідають штучному інтелекту. Хоча затьмарені зображення залишаються незрозумілими для людських очей і, здається, захищають їхній конфіденційний вміст, нейронні мережі часто можуть точно сказати, хто є хто в оригінальному зображенні.

Іншими словами, люди вже не є лакмусовим тестом. Ми більше не можемо просто запитувати, чи щось перемагає всі людські мізки. A.I.s - навіть прості A.I.s - можуть перевершувати людей, тому їх поразка теж завжди повинна бути частиною рівняння.

Дослідження Cornell Tech дослідників зосереджено на перевірці алгоритмів збереження конфіденційності, які розмивають або розписують певну інформацію або частини зображень. Раніше ми довіряли програмному забезпеченню чи алгоритмам збереження конфіденційності неявно, вважаючи, що інформація, яку вони закривали, була захищеною, оскільки не людини може сказати, хто за цифровою завісою. Дослідження показує, що ця ера закінчилася, і відповідні методи анонімності теж не триватимуть довго. Нейронні мережі, що зустрічаються з цими заходами щодо конфіденційності, не заважають.

Річард Макферсон - доктор філософії. кандидат комп'ютерних наук в Техаському університеті, Остін, який слідував за своїм професором Віталієм Шматиковим до Cornell Tech. Разом, разом з Реза Шокрі, вони продемонстрували, що прості нейронні мережі можуть викривати загальні методи обфусування зображень. Метод є відносно непростим, що робить відкриття більш тривожним: це загальні, доступні методи, і вони змогли перемогти галузеві норми для заплутування.

Нейронні мережі - великі, шаруваті структури вузлів, або штучні нейрони, які імітують основну структуру мозку. Вони «базуються на спрощеному розумінні того, як працюють нейрони», - розповідає Макферсон Обернено. "Дайте їй деякий вхід, і нейрон або пожеж або не вогонь".

Вони також здатні "навчатися", грубим визначенням терміна. Якщо ви покажете дикого (зовсім неосвіченого) людину «червоним» і скажіть їм, щоб вони вибирали всі «червоні» речі з ковша, вони спочатку боротимуться, але з часом покращаться. Так само з нейронними мережами. Машинне навчання просто означає навчити комп'ютер вибирати «червоні» речі, наприклад, з віртуального відро з різноманітних речей.

Так McPherson та компанія навчилися нейронній мережі. "У нашій системі ми створюємо модель - архітектуру нейронних мереж, структурований набір цих штучних нейронів - і тоді ми надаємо їм велику кількість обфусканих зображень", - говорить він. "Наприклад, ми можемо дати їм сто різних фотографій Керола, які були пікселізовані, а потім сто різних зображень Боба, які були пікселізовані".

Потім дослідники позначають ці піксельні зображення і, таким чином, розповідають моделі, яка є у кожному зображенні. Після обробки цього набору даних мережа функціонально знає, як виглядають Pixelated Bob і Pixelated Carol. "Тоді ми можемо надати їй різну піксельну картину Боба або Керола, без ярлика", - пояснює Макферсон, - і він може припустити і сказати: "Я думаю, що це Боб з 95-відсотковою точністю".

Модель не реконструює заплутаний образ, але той факт, що він здатний перемогти найпоширеніші і найнадійніші методи анонімності, сам по собі викликає занепокоєння. "Вони здатні зрозуміти, що це заплутування, але вони не знають, як він спочатку виглядав", - говорить Макферсон.

Але нейронні мережі все ще здатні зробити це набагато краще, ніж люди. Коли зображення були найзабрудненішими за допомогою однієї стандартної техніки, система все ще була більш ніж на 50% точною. Для трохи менш заплутаних зображень система виявилася чудовою, з точністю близько 70%. Норма YouTube щодо розмивання облич зовсім не вдалася; навіть найбільш розмиті зображення були підірвані нейронною мережею, що виявилося 96-відсотковим.

Інші раніше немедлені дані, тексти та методи анонімізації зображень також є ненадійними. "Протягом літа була робота, яка розглядала анонімізацію тексту за допомогою пікселізації та розмивання, і показала, що вони також можуть бути розбиті", - говорить Макферсон. І інші способи, які можна було б довірити, можуть також вийти на двері. Незважаючи на те, що він не знає способів заплутування голосу, як ті, які використовуються для анонімних телевізійних інтерв'ю, він "не здивується", якщо нейронні мережі можуть порушити анонімізацію.

Відкриття МакФерсона, таким чином, доводить, що «методи збереження конфіденційності, які ми мали в минулому, насправді не заглиблюють, особливо з використанням сучасних методів машинного навчання». Іншими словами, ми кодуємо себе в неактуальність, тренуючи машини перевершуйте нас у всіх царствах.

"Зі зростанням потужності машинного навчання цей компроміс зміститься на користь противників", - писали дослідники.

$config[ads_kvadrat] not found