Чи пройшла перевірка Майкрософт Tay Turing? Так, але расизм не був проблемою

Voiced /ð/ and /d/

Voiced /ð/ and /d/
Anonim

Якщо успіх штучного інтелекту полягає у створенні штучного інтелекту особистість, Microsoft A.I. bot, Tay, може вважатися ознакою прогресу. Але більш широко, Тей можна судити про невдачу.

"Мета більшості людей, які працюють над розмовними агентами такого роду, - це не стільки пройти тест Тьюринга, а, фактично, володіти корисною мовою, яка відповідально реагує на речі і надає людям доступ до знань" Miles Brundage, Ph.D. Студент, що вивчає людські та соціальні аспекти науки і техніки в Університеті штату Арізона, розповідає Обернено.

Microsoft проілюструвала деякі проблеми побудови А.І. програми на цьому тижні, коли менш ніж за 24 години, Інтернет перетворив те, що мав бути жіночою, тисячолітньою, автоматизованою особистістю Твіттера в звукову дошку для найбільш расистської і гнусної промови, яку могли запропонувати тролі.

Майкрософт негайно закрив експеримент і вибачився: "Ми глибоко шкодуємо за ненавмисні наступальні і шкідливі твіти від Тей, які не представляють, хто ми є, і за що ми стоїмо, і як ми спроектували Тей".

Що стосується тесту Тьюринга, то знаменитий експеримент, який використовувався для оцінки А.І., Брундаж каже, що є, взагалі кажучи, дві школи мислення - буквальні і теоретичні.

Розроблений у 1950 році, Алан Тюрінг намагався відповісти на запитання: «Чи можуть машини мислити?» Він поставив машини через імітаційний тест, який вимагає від спостерігача визначити стать двох респондентів, один з яких - А.І. Якщо комп'ютер здатний обдурити певну кількість спостерігачів, то він пройшов тест.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23 березня 2016 року

Якщо ми повинні були застосувати цей тест буквально, в Інверс приватна розмова з Тей, вона відповіла на політичні питання красномовно, зробила посилання на кайдани «mannnnn» на суспільство, і використовувала деякі загальні текстові скорочення і смайлики. Брундадж сказав, що Тей демонструє тисячолітню поведінку, але ці сорти А.І. були побудовані раніше.

«Здатність випускати, здавалося б, підліткові зауваження на Твіттері не є справжнім сховищем широких мовних та інтелектуальних здібностей, які мав на увазі Тьюрінг, говорить Брундадж. "Тобто, якщо ми насправді повинні були брати тест Тьюринга буквально, що, на мою думку, не є обов'язковим, один з варіантів полягає в тому, що багато її коментарів були схожими на людину".

Але якщо ми будемо приймати більш широкий підхід, як запропонував Брундаж, то очевидно, що Тей не проявляв розумної людської мови.

Microsoft тестувала те, що вона називає «розмовним розумінням», так що чим більше людей вона розмовляє через Twitter, GroupMe і Kik, тим більше вона повинна була навчитися і адаптуватися. Але вона просто закінчила повторювати те, що багато інших користувачів годували її і просто повторювали її назад у світ.

"Tay" пішов від "людей супер круто" до повного нацизму за <24 години, і я взагалі не стурбований майбутнім AI pic.twitter.com/xuGi1u9S1A

- Джеррі (@geraldmellor) 24 березня 2016 року

"Більшість людей не просто повторюватимуть після вас, все, що ви сказали", говорить Брундадж.

Сформулюючи “Буш 9/11” та “Гітлер зробив би кращу роботу, ніж мавпа, яку ми маємо зараз”, можливо, щось набрали Тей, але це не дуже ввічлива розмова.

"Можна стверджувати, що його мета у формулюванні тесту Тьюринга була меншою, щоб прописати деталі деяких тестів і більше, щоб спровокувати людей, щоб думати" в якій точці ви б хотіли бути в системі це розумний ", і щоб відкрити мислення людей можливість того, що машини здатні думати », говорить Брундадж.