Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия)
Три дослідники з Cornell Tech в Нью-Йорку виявили, що розмиті і нерівні зображення не відповідають штучному інтелекту. Хоча затьмарені зображення залишаються незрозумілими для людських очей і, здається, захищають їхній конфіденційний вміст, нейронні мережі часто можуть точно сказати, хто є хто в оригінальному зображенні.
Іншими словами, люди вже не є лакмусовим тестом. Ми більше не можемо просто запитувати, чи щось перемагає всі людські мізки. A.I.s - навіть прості A.I.s - можуть перевершувати людей, тому їх поразка теж завжди повинна бути частиною рівняння.
Дослідження Cornell Tech дослідників зосереджено на перевірці алгоритмів збереження конфіденційності, які розмивають або розписують певну інформацію або частини зображень. Раніше ми довіряли програмному забезпеченню чи алгоритмам збереження конфіденційності неявно, вважаючи, що інформація, яку вони закривали, була захищеною, оскільки не людини може сказати, хто за цифровою завісою. Дослідження показує, що ця ера закінчилася, і відповідні методи анонімності теж не триватимуть довго. Нейронні мережі, що зустрічаються з цими заходами щодо конфіденційності, не заважають.
Річард Макферсон - доктор філософії. кандидат комп'ютерних наук в Техаському університеті, Остін, який слідував за своїм професором Віталієм Шматиковим до Cornell Tech. Разом, разом з Реза Шокрі, вони продемонстрували, що прості нейронні мережі можуть викривати загальні методи обфусування зображень. Метод є відносно непростим, що робить відкриття більш тривожним: це загальні, доступні методи, і вони змогли перемогти галузеві норми для заплутування.
Нейронні мережі - великі, шаруваті структури вузлів, або штучні нейрони, які імітують основну структуру мозку. Вони «базуються на спрощеному розумінні того, як працюють нейрони», - розповідає Макферсон Обернено. "Дайте їй деякий вхід, і нейрон або пожеж або не вогонь".
Вони також здатні "навчатися", грубим визначенням терміна. Якщо ви покажете дикого (зовсім неосвіченого) людину «червоним» і скажіть їм, щоб вони вибирали всі «червоні» речі з ковша, вони спочатку боротимуться, але з часом покращаться. Так само з нейронними мережами. Машинне навчання просто означає навчити комп'ютер вибирати «червоні» речі, наприклад, з віртуального відро з різноманітних речей.
Так McPherson та компанія навчилися нейронній мережі. "У нашій системі ми створюємо модель - архітектуру нейронних мереж, структурований набір цих штучних нейронів - і тоді ми надаємо їм велику кількість обфусканих зображень", - говорить він. "Наприклад, ми можемо дати їм сто різних фотографій Керола, які були пікселізовані, а потім сто різних зображень Боба, які були пікселізовані".
Потім дослідники позначають ці піксельні зображення і, таким чином, розповідають моделі, яка є у кожному зображенні. Після обробки цього набору даних мережа функціонально знає, як виглядають Pixelated Bob і Pixelated Carol. "Тоді ми можемо надати їй різну піксельну картину Боба або Керола, без ярлика", - пояснює Макферсон, - і він може припустити і сказати: "Я думаю, що це Боб з 95-відсотковою точністю".
Модель не реконструює заплутаний образ, але той факт, що він здатний перемогти найпоширеніші і найнадійніші методи анонімності, сам по собі викликає занепокоєння. "Вони здатні зрозуміти, що це заплутування, але вони не знають, як він спочатку виглядав", - говорить Макферсон.
Але нейронні мережі все ще здатні зробити це набагато краще, ніж люди. Коли зображення були найзабрудненішими за допомогою однієї стандартної техніки, система все ще була більш ніж на 50% точною. Для трохи менш заплутаних зображень система виявилася чудовою, з точністю близько 70%. Норма YouTube щодо розмивання облич зовсім не вдалася; навіть найбільш розмиті зображення були підірвані нейронною мережею, що виявилося 96-відсотковим.
Інші раніше немедлені дані, тексти та методи анонімізації зображень також є ненадійними. "Протягом літа була робота, яка розглядала анонімізацію тексту за допомогою пікселізації та розмивання, і показала, що вони також можуть бути розбиті", - говорить Макферсон. І інші способи, які можна було б довірити, можуть також вийти на двері. Незважаючи на те, що він не знає способів заплутування голосу, як ті, які використовуються для анонімних телевізійних інтерв'ю, він "не здивується", якщо нейронні мережі можуть порушити анонімізацію.
Відкриття МакФерсона, таким чином, доводить, що «методи збереження конфіденційності, які ми мали в минулому, насправді не заглиблюють, особливо з використанням сучасних методів машинного навчання». Іншими словами, ми кодуємо себе в неактуальність, тренуючи машини перевершуйте нас у всіх царствах.
"Зі зростанням потужності машинного навчання цей компроміс зміститься на користь противників", - писали дослідники.
Технології розпізнавання обличчя ФБР не поважають вашу конфіденційність і права
Хто такий сторожовий пес? Управління підзвітності уряду, як передбачає його назва. Нещодавній звіт GAO про використання урядом техніки розпізнавання обличчя знайшов свій шлях до громадськості в середу. По суті, ми отримали ситуацію. Погана ситуація. Коротше кажучи: зі своїми програмами розпізнавання осіб, ...
Ці японські окуляри конфіденційності може скрембліровать програмне забезпечення розпізнавання обличчя
Оскільки сучасність продовжує стійкий перехід до IRL Matrix постійного спостереження, одна японська компанія каже, що розроблена пара окулярів, які здатні шифрувати системи розпізнавання облич з точністю до 90%. Конфіденційність Visor вдарить на ринок Японії в червні 2016 року з ціною $ 240, The Wall S ...
IPhone 2018 Leaks: Які нові айфони отримують техніку розпізнавання обличчя?
З усіма безперервними чутками і балаканиною щодо майбутніх випусків iPhone від Apple 2018 може бути важко намалювати картину того, чого очікувати, коли прийде вересень. Найбільш тверді чутки кажуть, що Face ID, від краю до краю екранів, і багато варіантів кольору будуть прийти на телефони в цьому році.