Чи тестує Тьюринг останнє слово в роботі інтелекту? Не розраховуйте на це

Время и Стекло Так выпала Карта HD VKlipe Net

Время и Стекло Так выпала Карта HD VKlipe Net

Зміст:

Anonim

Ще в 1950 році комп'ютерний вчений, розбивач коду та герой війни Алан Тюрінг представив світу дуже просту передумову: якщо робот може зайнятися текстовою бесідою з людиною і обдурити цю людину, що вона вірить, що це людина, щонайменше 30 відсотків Напевно, ми могли б погодитися, що робот - це "мисляча" машина. Мета Тьюрінга полягала в тому, щоб змусити людей мислити більш творчо про взаємодію з комп'ютером, але він ненавмисно створив тест, на який розробники та коментатори роботів розраховували протягом багатьох років. Але серйозні мислителі штучного інтелекту не зосереджують увагу на тому, що третій час переплутали давно мертвого генія. Вони зосереджені на більш суттєвих показниках.

Принципово, проблема Тесту Тьюринга полягає в тому, що вона погано визначена, тому полегшує ажіотаж (наприклад, цей фальшивий викладач в Грузії), а не пропонує легко дублювати результати. Крім того, можна стверджувати, що він вимірює людську слабкість, а не штучну силу. Обман і відхилення можуть дозволити відносно нехитрому чатботу «пройти тест». Наприклад, бот з ім'ям Євген Гостман, призначений видати себе за 13-річного українського хлопчика, нещодавно обдурив третю групу суддів, щоб повірити в хитрість. Євген відривається від розмови як трохи придумки, і це виявилося його секретною зброєю. Судді очікували, що робот, запрограмований на розвідку, не той, хто уникав запитань, робив погані жарти, викидав малапропізми, і засипав текст смайликами.

щойно пройшов тест #fml

- jam (@hugdeserver) 11 травня 2016 року

Якщо не тест Тьюринга, то що? Дослідники з усього світу придумали деякі альтернативи.

Розшифровка неоднозначних речень

Фундаментальна проблема з чатботами Тьюринга полягає в тому, що машини все ще дуже важко розуміють речення, які відразу ж мають сенс для людини. "Петро крикнув на Павла, тому що він спав зі своєю подругою". Для людини відразу зрозуміло, що Павло спав з подругою Петра, але до комп'ютера "він" і "його" могли кожен посилатися на будь-яку людину. Розуміння того, що сталося, вимагає знати щось про те, що означає кричати на когось, і за яких умов людина може бути мотивована для цього.

Гектор Левеск, професор інформатики в Університеті Торонто, запропонував машинам залучити сенс цих різновидів неоднозначно побудованих речень, названих схемою Winograd, як альтернативу тесту Тьюринга. Це вимагатиме виходу за рамки імітації людської мови і до сфери реального розуміння. Вже зараз розробник може отримати премію у розмірі 25 тисяч доларів, який може зробити бота, який виконує так само добре, як і людина, на це завдання - хоча бот може розглянути кожне питання до п'яти хвилин.

Розпізнавання обличчя

Деякі А.І. дослідники розглянули ідею, що машинний інтелект може і повинен виходити за рамки мови. Розпізнавання на обличчі є прикладом того, що люди роблять особливо добре - дитина може визнати свою матір протягом декількох тижнів після народження.

Деякі комп'ютери вже виходять за межі людей, що розпізнають обличчя, хоча це - міра справжнього інтелекту - все ще є предметом дискусії. Машина, запрограмована бути дуже хороша в одній справі, зовсім відрізняється від такої гнучкої інтелекту, яка може бути використана різними способами і в різних ситуаціях.

Прийняття коледжу

Японські робототехники намагаються побудувати робота, який може потрапити в коледж. Вступні іспити до Токійського університету загальновідомо важкі, і тим більше для робота, ніж для старших класів середньої школи.

На жаль, для роботів хороше тестування займає набагато більше, ніж запам'ятовування багатьох фактів. Математичні питання не дають вам рівняння, яке б вирішували - вони описують сценарій простою мовою і залишають це до вас, щоб з'ясувати, як побудувати рівняння, яке прийде до правильної відповіді. Навіть просте питання про історичний факт може бути складним, якщо робот не зможе зрозуміти синтаксис або контекст використовуваної мови.

І вступні іспити не є просто тестом на множинний вибір - робот також повинен писати есе. Мабуть, плагіат не буде дозволений, і машина повинна буде генерувати певну прозу на даній темі, яка є одночасно оригінальною і розумною. Враховуючи, що роботам досить важко переосмислювати мову 13-річного хлопця, це здається досить далеким. Тим не менш, дослідники, що беруть участь, говорять, що вони сподіваються побачити свого маленького бота в коледжі до 2021 року.

Відтворення відтворення

Цей бар особливо високий. Коментуючи спортивну гру, потрібно приймати складну аудіовізуальну інформацію та повідомляти про те, що відбувається простою мовою. Робот повинен мати дуже хороші мовні навички на додаток до візуальної системи обробки.

Якщо комп'ютер може навіть створити напівпристойний живий звіт про футбольний матч, люди зможуть погодитися з тим, що цей робот досить простим розумом. Хоча, можливо, через 65 років спортивні боти-коментатори здадуться особливо двомірними, і нам доведеться придумати нові перешкоди, щоб вони могли стрибати.