Настя и сборник весёлых историй
Роботи, як і люди, повинні дізнатися, коли сказати "ні". Якщо запит неможливий, може завдати шкоди, або відверне їх від поставленої задачі, то це в інтересах "бота і його людини для дипломатичного ні, дякую бути частиною розмови.
Але коли слід розмовляти машиною? І за яких умов? Інженери намагаються з'ясувати, як прищеплювати це відчуття того, як і коли кидати виклик на замовлення в гуманоїдах.
Спостерігайте за тим, як робот Нао відмовляється йти вперед, знаючи, що це призведе до того, що він звалиться з краю столу:
Прості речі, але безумовно необхідні для перевірки людської помилки. Дослідники Гордон Бриггс і Маттіас Шецц з Університету Тафтса розробили складний алгоритм, який дозволяє роботові оцінити, що людина попросила його зробити, вирішити, чи повинен він це робити, і відповідати належним чином. Дослідження було представлено на нещодавньому засіданні Асоціації сприяння штучному інтелекту.
Робот задає собі ряд питань, пов'язаних з тим, чи можна виконати завдання. Чи знаю я, як це зробити? Я фізично можу це зробити зараз? Я фізично можу це зробити? Чи можу я це зробити прямо зараз? Чи зобов'язаний я робити це на основі своєї соціальної ролі? Чи порушує це будь-який нормативний принцип?
Результатом є робот, який, здається, не тільки розумний, але й один день, навіть мудрий.
Зверніть увагу, як Нао змінює свою думку про те, щоб піти вперед після того, як людина обіцяє його зловити. Легко було б уявити собі інший сценарій, де робот каже: "Ні в якому разі, чому я повинен вам довіряти?"
Але Нао - це соціальна істота. Задовольняти людей є в його ДНК, тому з урахуванням інформації про те, що людина має намір ловити його, він сліпо крокує вперед у прірву. Звичайно, якщо б людина обманював свою довіру, він був би завалений, але він все одно вірить. Це шлях Нао.
Як роботодавці стають більш складними, інженерам-роботам доведеться боротися з цими питаннями. Роботи повинні будуть приймати рішення не тільки на збереження власної безпеки, але й на більші етичні питання. Що робити, якщо людина просить робота вбити? Здійснювати шахрайство? Щоб знищити іншого робота?
Ідея машинної етики не може бути відокремлена від штучного інтелекту - навіть наші автомобілі без водія майбутнього повинні бути спроектовані, щоб зробити вибір життя чи смерті від нашого імені. Ця розмова обов'язково буде більш складною, ніж просто надати порядок.
Що я дізнався про "Doom" від "Створення Doom 3" книги
Прокляття. Я люблю Doom 3. Це безлад гри, але в усіх правильних способах. Мені подобається те, що вони латали гру, щоб ви могли стріляти з гарматами і реально бачити, що відбувається, дозволяючи вам закріпити ліхтарик до вашого пістолета. Як це може відбуватися в одному з найбільших франшиз у всіх ...
«Місто у вогні», «Найбільш роздута книга», «Гарна», «Помпезна» і «Подовжена»
Garth Risk City Hall у вогні не може допомогти, але зловити ваше око на його галас тільки. Перший автор з безпрецедентним $ 2 мільйоном авансом, миттєвою угодою перед тим, як він навіть вийшов, лічильник сторінок, що там з Infinite Jest, видавці, що тлумачать його як шедевр, журнали, які задихаються ...
Про 8 великих мінусів про переїзд ніхто не хоче говорити
Спілкування разом зі своїм партнером може здатися дуже веселим, але ось 8 великих мінусів, про які потрібно подумати, навіть якщо це все заглухло!