A.I. 'S Швидке просування повинно бути страшно, якщо ви платите увагу

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Коли йдеться про виявлення екзистенціальних загроз, пов'язаних з технологічними нововведеннями, уява народу викликає бачення Термінатор, Матриця, і Я, робот - дистопії, якими керують хазяї роботів, які масово експлуатують і винищують людей. У цих спекулятивних ф'ючерсах поєднання супер-інтелекту і злих намірів веде комп'ютери до знищення або поневолення людського роду.

Проте, нове дослідження свідчить, що це будуть банальні програми А.І. це призведе до серйозних соціальних наслідків протягом найближчих кількох років. У доповіді - «Шкідливе використання штучного інтелекту» - авторами 26 дослідників і вчених з елітних університетів і науково-орієнтованих аналітичних центрів, викладені шляхи, які дають А.І. технології загрожують нашій фізичній, цифровій та політичній безпеці. Щоб привернути увагу своїх дослідників, дослідницька група розглядала лише технології, які вже існують або вірогідні протягом наступних п'яти років.

Що виявило дослідження: A.I. Системи, швидше за все, розширять існуючі загрози, запровадять нові і змінять їх характер. Теза доповіді полягає в тому, що технологічні досягнення зроблять певні злочини більш легкими та корисними. Дослідники стверджують, що поліпшення в A.I. зменшить обсяг ресурсів і знань, необхідних для проведення деяких кібернападів, ефективно знижуючи бар'єри для злочинності:

Витрати на атаки можуть бути знижені за рахунок масштабованого використання систем штучного інтелекту для виконання завдань, які зазвичай потребують людської праці, інтелекту та досвіду. Природним ефектом було б розширення набору суб'єктів, які можуть здійснювати конкретні атаки, швидкість, з якою вони можуть здійснювати ці атаки, і набір потенційних цілей.

У звіті наведено чотири рекомендації:

1 - Політики повинні тісно співпрацювати з технічними дослідниками для дослідження, запобігання та пом'якшення можливого шкідливого використання ШІ.

2. Дослідники та інженери з штучного інтелекту повинні серйозно приймати подвійну природу своєї роботи, дозволяючи неправомірно пов'язані міркування впливати на наукові пріоритети та норми, а також активно залучатися до відповідних суб'єктів, коли передбачувані шкідливі програми.

3 - Кращі практики повинні бути визначені в областях досліджень з більш зрілими методами для вирішення проблем подвійного використання, таких як комп'ютерна безпека, та імпортовані, якщо це застосовне до випадку ІІ.

4 - Активно прагнути до розширення кола зацікавлених сторін та експертів з питань, що беруть участь у обговоренні цих проблем

Як А.І. може зробити сучасні афери розумнішими: Наприклад, атаки фішинг-копій, в яких знущаються художники стають другом, членом сім'ї або колегою цільової цілі, щоб отримати довіру і отримати інформацію та гроші, вже є загрозою. Але сьогодні вони вимагають значних витрат часу, енергії та досвіду. Як А.І. Системи збільшуються в складності, деякі з активностей, необхідних для фішинг-атаки списом, подібно до збору інформації про ціль, можуть бути автоматизовані. Фішер міг би інвестувати значно менше енергії в кожну пристань і націлювати більше людей.

І якщо афери починають інтегрувати А.І. в їхніх онлайнових обмеженнях, може стати неможливим розрізняти реальність від моделювання. "По мірі розвитку АІ переконливі чатботи можуть викликати довіру людей шляхом залучення людей до більш тривалих діалогів і, можливо, зрештою маскуватися візуально як інша людина у відеочаті", - говориться в доповіді.

Ми вже бачили наслідки машинно-згенерованого відео у вигляді Deepfakes. Оскільки ці технології стають доступнішими і зручнішими для користувачів, дослідники побоюються, що погані актори поширюватимуть виготовлені фотографії, відео та аудіофайли. Це може призвести до успішних кампаній з наклепом з політичними наслідками.

За клавіатурою: І потенційні зловживання не обмежуються інтернетом. Тому що ми рухаємось до прийняття автономних суден, hackers могли розгорнути adversarial приклади обдурити самостійне ведення автомобілів у misperceiving їхнє оточення. "Зображення стоп-знака з кількома пікселями, зміненими конкретними способами, які люди легко розпізнали б як образ стоп-знака, може, тим не менш, бути неправильно класифіковано як щось інше повністю системою ШІ", - йдеться у звіті.

Інші загрози включають автономні безпілотні літальні апарати з інтегрованим програмним забезпеченням для розпізнавання облич для цілеспрямованих цілей, скоординовані DOS-атаки, які імітують поведінку людини, а також автоматизовані гіпер-персоналізовані кампанії з дезінформації.

У доповіді рекомендується, щоб дослідники розглядали можливі шкідливі програми A.I. при розробці цих технологій. Якщо адекватні заходи захисту не будуть впроваджені, то ми, можливо, вже маємо технологію знищення людства, не потрібні роботи-вбивці.

$config[ads_kvadrat] not found