Цей робот дізнався, як говорити «ні» про людські потреби

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Роботи, як і люди, повинні дізнатися, коли сказати "ні". Якщо запит неможливий, може завдати шкоди, або відверне їх від поставленої задачі, то це в інтересах "бота і його людини для дипломатичного ні, дякую бути частиною розмови.

Але коли слід розмовляти машиною? І за яких умов? Інженери намагаються з'ясувати, як прищеплювати це відчуття того, як і коли кидати виклик на замовлення в гуманоїдах.

Спостерігайте за тим, як робот Нао відмовляється йти вперед, знаючи, що це призведе до того, що він звалиться з краю столу:

Прості речі, але безумовно необхідні для перевірки людської помилки. Дослідники Гордон Бриггс і Маттіас Шецц з Університету Тафтса розробили складний алгоритм, який дозволяє роботові оцінити, що людина попросила його зробити, вирішити, чи повинен він це робити, і відповідати належним чином. Дослідження було представлено на нещодавньому засіданні Асоціації сприяння штучному інтелекту.

Робот задає собі ряд питань, пов'язаних з тим, чи можна виконати завдання. Чи знаю я, як це зробити? Я фізично можу це зробити зараз? Я фізично можу це зробити? Чи можу я це зробити прямо зараз? Чи зобов'язаний я робити це на основі своєї соціальної ролі? Чи порушує це будь-який нормативний принцип?

Результатом є робот, який, здається, не тільки розумний, але й один день, навіть мудрий.

Зверніть увагу, як Нао змінює свою думку про те, щоб піти вперед після того, як людина обіцяє його зловити. Легко було б уявити собі інший сценарій, де робот каже: "Ні в якому разі, чому я повинен вам довіряти?"

Але Нао - це соціальна істота. Задовольняти людей є в його ДНК, тому з урахуванням інформації про те, що людина має намір ловити його, він сліпо крокує вперед у прірву. Звичайно, якщо б людина обманював свою довіру, він був би завалений, але він все одно вірить. Це шлях Нао.

Як роботодавці стають більш складними, інженерам-роботам доведеться боротися з цими питаннями. Роботи повинні будуть приймати рішення не тільки на збереження власної безпеки, але й на більші етичні питання. Що робити, якщо людина просить робота вбити? Здійснювати шахрайство? Щоб знищити іншого робота?

Ідея машинної етики не може бути відокремлена від штучного інтелекту - навіть наші автомобілі без водія майбутнього повинні бути спроектовані, щоб зробити вибір життя чи смерті від нашого імені. Ця розмова обов'язково буде більш складною, ніж просто надати порядок.

$config[ads_kvadrat] not found