017 ENG HTML and CSS Use the meta tag and the charset utf 8 to display characters like ñ
Роботи виявляються досить великими людськими супутниками. Хто не хотів би, щоб чарівний маленький Пеппер розповідав нам жарти, давав нам компліменти, і взагалі змушував нас відчувати себе менш самотніми у світі? Навіть безформні роботи виявляються дивно гарною компанією. Візьміть, наприклад, Alexa Amazon Echo. Вона є робототехнічним мозку з людським голосом, укладеним у тіло аудіо спікера, але вона корисна, і якщо ви читаєте її відгуки, то зрозуміло, що вона стала багатьма користувачами як сім'я. Чи будуть люди думати по-іншому, якщо вона бреше? Як щодо того, якщо вона розповість вам те, що ви дійсно не хотіли чути?
Подумайте про це: ми говоримо дітям, щоб вони ніколи не говорили про брехню, і що чесність - це найкраща політика, і все-таки ми опускаємо, спотворюємо правду і відверто брешемо дітей весь час. Це вчить їх, через наші дії, якщо не через наші слова, що це не про повну чесність, а про вивчення складних соціальних правил про те, коли і як розкрити або приховати потенційно конфіденційну інформацію. Роботи з програмування, які дотримуються цих соціальних правил, можуть бути важкою, але необхідною частиною процесу інноваційного автоматизації.
Ось приклад: я був у будинку свого зятя в інші вихідні, і я пішов до магазину, щоб забрати сендвіч на обід. Моя шість-річна племінниця допомагала мені виносити їжу, поки всі інші були з кухні, і вона запитала мене, скільки коштує продуктів. Я сказав їй, тому що вчення дітей про цінність грошей - хороша річ.
За обіднім столом вона попросила мене розповісти всім, наскільки коштували продукти. Я сказав, що немає.«Чому?» - запитала вона, щиро розгубившись, чому питання, на яке я відповів вільно через кілька хвилин, тепер є секретною інформацією. - Це не ввічливо, - сказав я, пояснюючи, що, оскільки вона є дитиною, правила, коли ми самі, різні. Я навчав її, що чесність і прямота мають час і місце. Інформація в людському контексті не завжди хоче бути вільною.
Це те ж саме з роботами. Ми думаємо, що ми не хочемо, щоб наші роботи брехали нам, але ми насправді хочемо, щоб вони вивчали складні соціальні правила ввічливості і розсудливості, які іноді вимагають викривлення істини. І вони вже навчаються, як це зробити. Візьміть цей короткий кліп Pepper, який взаємодіє з репортером, наприклад:
Перше, що виходить з рота Пеппера, це комплімент: «Отже, ви дуже шикарні. Ти модель?"
Журналіст досить гарний, але питання Пеппера не є повністю чесним. Ми розуміємо, що Pepper насправді не задається питанням, чи є він моделлю, і він запрограмований, щоб сказати гарні речі, незалежно від того, як людина виглядає.
Незабаром після цього перець запитає про кредит. Це неввічливе питання, невміла, що ми легко прощаємо роботові за те, як ми б дитину. Репортер міг би вказати, що питання грубий, припустив, що роботи не потребують грошей, або визнали, що він не зацікавлений в передачі 100 доларів на перець. Вся правда в тому, що репортер міг позичити роботові гроші, але розуміє, що саме питання це трохи гри. Він хоче сказати, що це відхилення, а також біла брехня або напівправда - у нього немає грошей на нього. Сподіваємося, що робот розуміє це як ніжне «ні», і не припускає, що репортер йде на банкомат і робить висновок. Оскільки Пеппер, мабуть, має певну соціальну благодать, лінія опитування закінчується.
Соціальні роботи запрограмовані на вивчення соціальних сигналів, і це добре - це, в кінцевому рахунку, зробить їх кращими на наших роботах. Завдання для програмістів полягає не в тому, щоб усунути весь обман роботів, а додати функції, які полегшують роботів приймати рішення про відповідні відповіді.
Коли роботи є нашими довіреними особами, вони повинні мати усвідомлення контексту і аудиторії. Наприклад, якщо я намагаюся нарядитися в домашніх умовах, я хочу отримати чесну оцінку того, як лежать різні варіанти. Якщо я виходжу на вечірку і раптом усвідомлює, що я вибрав неправильне плаття, то впевненість у тому, що я виглядаю добре, буде найбільш корисною реакцією.
Роботи дізнаються багато особистої інформації про своїх співрозмовників, і їм буде важливо зрозуміти різницю між конфіденційною інформацією та публічною інформацією, а також знати, хто слухає, коли він говорить. Питання будуть мати різні відповіді в залежності від того, хто запитує. Роботи будуть поводитися по-різному, коли гості знаходяться в будинку.
Роботи, як і діти, потребують відповідального батьківства. Це означає, що і роботові програмісти, і власники роботів повинні глибоко подумати про етичні та соціальні наслідки нашого А.І. взаємодії. Але це не означає вимагати досконалої чесності - серйозно, ніхто цього не хоче.
Громадянство роботів: чому наші штучні помічники можуть одного дня знадобитися паспортів
Мальта працює з SingularityNET для вивчення надання штучного інтелекту та громадянства роботів. Цей крок слідує за надання громадянства Софії, розробнику гуманоїдного робота Hanson Robotics. Чи готові ви дати своїй Siri або Амазонці юридичні права?
Відео: Flying Aquila Drone Facebook буде пускати в Інтернет
Цілі Facebook, щоб принести Інтернет у світ, стали на один крок ближче в четвер. Компанія виявила, що її експериментальний літак на сонячній енергії, названий Aquila, призначений для підключення до віддалених регіонів, завершив свій перший успішний випробувальний політ. Після розгортання, дрони будуть використовувати лазери для ретрансляції Інтернету ...
10 Маленьких білих брехні, про які ви повинні брехати на першому побаченні
Коли-небудь були на першому побаченні і доводилося брехати, боячись, що вони можуть подумати? Якщо так, ви не самотні. Ось 10 брехні, які ви, напевно, розповідали раніше!