Озброєння машинного навчання проти ІСІС заплутує військові ланцюги командування

$config[ads_kvadrat] not found

ДвернаÑ? охота (Выломаные двери)

ДвернаÑ? охота (Выломаные двери)
Anonim

Кожен у інтернеті чудово провів час з Тей, роботом корпорації Майкрософт, що став ще расистським холокостом, за кілька годин (потім повернувся і зробив це знову). Компанія створила клапоть зі зв'язків з громадськістю - більше інцидентів, ніж катастрофа, надаючи громадськості предметний урок про плюси і мінуси машинного навчання: автоматизація може використовувати моделі для захоплюючого ефекту на швидкості, але результати будуть передбачувано важко передбачити.

Як це часто буває, військові є раннім засобом автоматизації. Це - у свій час - очолював заряд до машинного навчання, а також відчайдушно намагався йти в ногу. Одним з основних напрямків діяльності Пентагону є автономні роботи і те, як вони об'єднаються з людьми - наприклад, робот-крилач у стилі R2D2. Але на цьому тижні заступник міністра оборони Роберт Роберт виклав ще одне завдання для А.І.

"Ми абсолютно впевнені, що використання машин для глибокого навчання дозволить нам краще зрозуміти ІЗІЛ як мережу і краще розуміти, як правильно націлити її і призвести до її поразки", - сказав секретар. Веб-сайт Міністерства оборони. Відповідно до цього рахунку, робота, яка виступала на заході, організованому Асоціацією Washington Post, мав своє прозріння, спостерігаючи, як технічна компанія Silicon Valley демонструє «машину, яка знімала дані з Twitter, Instagram і багатьох інших публічних джерел, щоб показати польоті 17 липня 2014 року авіакомпанії Malaysia Airlines 17 у реальному часі».

Приватні компанії та правоохоронні органи вже давно намагаються розібратися у “великих даних”. Але у військових є перевага: ресурс. Також вони отримали доступ до секретних матеріалів.

Уряд США, схоже, готовий посперечатися, що програмні алгоритми можуть розбирати величезну кількість даних, щоб ідентифікувати цілі ISIS, які в іншому випадку могли б їх уникнути, і виявити і порушити ділянки, перш ніж планувальники зможуть їх виконати. Уряд вже намагається вивчити соціальні медіа, щоб передбачити розмір онлайн-протестів. Немає сумніву, що машинне навчання дасть аналітикам розвідки більшу владу, щоб зрозуміти багатство доступної інформації у світі. Але коли ця розвідка стає основою, на якій береться смертельний удар, етичні питання стають більш складними, навіть якщо вони здаються простими.

Хоча робота швидко заявила, що Пентагон не буде «делегувати смертельну владу машині», що залишається кінцевою грою. Тим часом люди будуть залишатися «в контурі», як і в жаргоні. Але, як знає кожен, хто подивився на iPhone для повідомлення про погоду, коли стоїть біля вікна, відносини, які ми маємо з нашими пристроями та програмним забезпеченням, не є простим. Ми проблематично довірливі та легко відволікаємося від питань інтерфейсу користувача.

“Автоматизація ухилу” - тенденція людей до відкладання машин - представляє ясну і дедалі більшу небезпеку. Приклад, що ілюструє це явище, коли ваш телефон повідомляє вам про те, щоб ви мали неправильний маршрут подорожі, але ви все робите, вважаючи, що телефон повинен знати щось, чого ви не знаєте. Це загальна проблема в невійськових контекстах. Те, що Пентагон, схоже, теж наближається, - це доповіді загрози, що складаються з штучного інтелекту. Ми не знаємо нічого про потенційну ефективність цієї програми, крім того, що це буде важко для людей.

У документі 2001 року, в якому розглядалися студентські та професійні пілоти та упередження автоматизації, дослідники виявили, що "в сценаріях, в яких правильна інформація була доступна для перехресної перевірки та виявлення аномалій автоматизації, показники помилок, які приблизно дорівнюють 55%, були задокументовані в обох популяціях". що додавання додаткового людського товариша по команді не пом'якшило проблему.

Аналогічно, дослідження MIT минулого року дещо тривожно виявило, що комп'ютерні та відеоігри мали «більш високу схильність до автоматизації довіри». Це може означати, що чим більше часу ми витрачаємо на наші екрани, тим більше ми довіряємо тому, що бачимо. Знову ж таки, проблема не в системах, які ми використовуємо, а в тому, як ми їх використовуємо. Провина не в наших зірках, а в нас самих.

Великі дані залишаються перспективними. Машинне навчання залишається перспективним. Але коли машини радять людям, результати передбачувано непередбачувані. Чи перетворює Тей на нео-нацистського женоненависника означає, що Твіттер ненавидить євреїв і жінок? Це важко зрозуміти, але досить малоймовірно. Коли ми не розуміємо процес, яким чином внески стають виходами, ми намагаємося розібратися з результатами раціональним способом. Що ставить Пентагон у цікаву позицію. Чи будуть люди, які програмують програмне забезпечення військового машинобудування, замовити авіаудари? Це не так, як ланцюг команд працює, але ланцюги команд заплутуються, коли технологія втягується.

$config[ads_kvadrat] not found