Tufts Roboticist закликає до машинної моралі: Роботи повинні "не послухатися, щоб виконувати"

$config[ads_kvadrat] not found

Amazon's Robotic Empire: Jeff Bezos' Smart Warehouses

Amazon's Robotic Empire: Jeff Bezos' Smart Warehouses
Anonim

Роботи стають більш центральними в нашому повсякденному житті, і незабаром їм доведеться починати протистояти ряду жорстких моральних виборів, які ми повинні регулярно робити. Матіас Шецц, професор інформатики в лабораторії взаємодії людини з робототехнікою університету Туфта, особливо стурбований тим, що ми не обладнали навіть наших найдосконаліших роботів-прототипів можливостями для вирішення деяких з цих ситуацій. Шецц вважає, що роботам доведеться навчитися не підкорятися людям, якщо ми хочемо, щоб вони дійсно слугували нашим потребам.

У коментарі про Сьогодні онлайн, провокаційно під назвою «Роботи повинні бути здатні не послухатися, щоб слухнятися», Шецц просить читача визначити, що робот повинен робити, якщо він зіткнеться з низкою ситуацій, які навіть можуть виявитися збитковими для людини. Дехто з них:

Робот похилого віку, якому забув забув власник мити «брудний одяг», навіть незважаючи на те, що одяг вийшов з пральної машини.

Учень, який командує своїм наставником робота робити все домашнє завдання, а не робити це самостійно.

Домашній робот доручив своєму зайнятому і відверненому власнику запустити утилізацію сміття, незважаючи на те, що в ній застрягли ложки й ножі.

Те, що Скеутц прагне описати в статті, є простим фактом, що нам знадобляться роботи, які знають, як сказати «ні» людям. Багато з його прикладів пов'язані з надійністю людини, що керує роботом, але це складніше, ніж здається, програмувати робота, який знає, що він приймає вказівки від тих, хто не є занадто молодим або старим або, очевидно, намагається викликати неприємності..

Деякі з цих питань вже гостро обговорюються в штаб-квартирі найпотужніших у світі технологічних компаній, оскільки вони шукають нові способи, якими технологія може зайняти частину нашого життя. Scheutz піднімає приклад автономного автомобіля, який спрямований на підтримку, але помічає собаку, що лежить на її шляху. Більшість з нас згодні з тим, що навіть людина, яка керує автомобілем, хоче, щоб автомобіль зупинився, але що, якщо тварина була білка або єнот? Що, якщо автомобіль їхав 45 mph вниз дорога країни та раптом гальмуючий для собаки ризикованого піддаючого автомобіля до зіткнення з іншим автомобілем позаду це?

"В обох випадках важливо, щоб обидві автономні машини виявляли потенційну шкоду, яку можуть заподіяти їхні дії, і реагувати на неї, намагаючись уникнути цього, або якщо не вдасться уникнути шкоди, відмовившись виконувати людські вказівки" Шейц пише про подібну дилему.

Команда Scheutz працює над цими проблемами зі своїми прототипами і виявила, що найважча частина цих питань відрізняє незначні ступені шкоди, яка може виникнути, коли робот виконує певний порядок. Тому вони призначили свого робота дуже простим, але потужним моральним уроком, який поставив би навіть великих філософів до сорому.

"Якщо вам доручено виконати певну дію, і можливо, що вчинення дії може завдати шкоди, то вам дозволено не виконувати її."

Тонким способом це революційний прогноз від Шецца. Звичайно, ми всі намагаємося уникнути шкоди, але хіба не можливо, що іноді ми вважаємо за краще ризикувати? Jaywalking на вулиці, їдять другу порцію десерту, або навіть копіювати нотатки друга з класу може порушити аксіома Scheutz.

Поняття робототехнічного втручання також свідчить про те, що Шеутц хоче, щоб його роботи дотримувалися закону. Не очікуйте, що ваш асистент роботів Scheutzian допоможе вам незаконно завантажити нову музику. Це може завдати шкоди акціонерам EMI!

Це складний аспект моральної, правової та технічної думки, і Шецц не боїться атакувати її головою.

$config[ads_kvadrat] not found