ÐинÑÐ°Ð¶Ð½Ð°Ñ Ñеклама Transporter Syncro
Існує питання морального робототехніки і сценарій, на який необхідно відповісти, щоб штучний інтелект просувався.
Уявіть, що робот контролює шахтний вал, і він розуміє, що є візок, заповнений чотирма людськими шахтарями, що кидаються з-під контролю. Робот може вибирати, щоб перемістити треки і вбити одного невідомого шахтаря, тим самим врятувавши чотирьох у кошику, або зберегти треки, як вони є, і дозволити чотирьом шахтарям зіткнутися зі стіною і померти. Що б ви обрали? Чи змінилася б ваша відповідь, якщо замість одного шахтаря був один? Якщо ми не можемо відповісти на це, як ми програмуємо роботів для прийняття такого рішення?
Це були питання, які поставили перед учасниками і глядачами на Всесвітньому фестивалі науки в Нью-Йорку під назвою «Моральна математика роботів: чи можна кодувати рішення про життя і смерть?» Більшість вирішила направити віз до одного шахтаря і змінити людину дитині не змінили розум багатьох респондентів, але це не було одностайно, і моральні рішення людини часто не є.
Це був гострий приклад боротьби, з якою зіткнеться людство, оскільки штучний інтелект продовжує розвиватися, і ми справляємося з можливістю програмування роботів з мораллю.
"Концепцію, подібну шкоді, важко програмувати", - заявив професор Гарі Маркус, професор психології та нейронних наук у Нью-Йоркському університеті та генеральний директор і співзасновник Geometric Intelligence, Inc. відповідь на програму, і в даний час ми не маємо гарного набору моралі для роботів поза законами Азімова, які були включені до фільмів, таких як iRobot.
Він сказав, що це був пункт його приєднання до групи, щоб почати розмову про те, як ми повинні боротися з мораллю робота.
Елон Маск на цьому тижні обговорював своє занепокоєння з приводу штучного інтелекту Матриця і що люди повинні інвестувати в нейронне мереживо, яке буде приєднуватися до мозку і підвищувати людські пізнавальні здібності. Інші футуристи, такі як Стівен Хокінг, попередили про небезпеку А.І. і на цьому тижні Метт Деймон попередив те ж саме під час свого виступу на MIT.
Інші сценарії включали мілітаризовані системи автономного озброєння і те, як ми морально і філософсько розглядаємо ці людські рішення на полі бою, а також, які рішення можуть робити автономні автомобілі в не дуже далекому майбутньому.
Учасники дискусії не досягли консенсусу щодо того, що робити, але сказав, що А.І. має величезні переваги. це не повинно бути викинуте через вікно тільки тому, що ці питання важкі. Вони запропонували більше говорити відкрито про ці питання морального шахтного стовбура, і, можливо, ми наблизимося до запобігання апокаліпсису робота.
«Fallout» не може адаптуватися до вашої моралі, і це проблема
Коли я повторюю свій шлях через серію Fallout, я вражений тим, наскільки складними і продуманими стають складні внутрішні системи. Кожна гра майже ніколи не припиняє додавати нові елементи, навіть після тридцяти або сорока годин, а деякі виходять на світ тільки через повтори або альтернативні шляхи символів. Як фанат, я неодноразово повторюю ...
Зробіть кращі рішення за допомогою байєсівської вірогідності, розумний спосіб розгляду ризику
Підраховано, що дорослі люди роблять близько 35000 рішень на день - відсоток хороших рішень залежить від дорослого. Такий вибір може бути настільки банальним, як прийняття рішення про рулон або зминання туалетного паперу або як емоційно ускладнене вирішення питання про вихід з відносин. І тому, що люди підлягають, а не щогли ...
Техаський конгресмен попереджає проти "гей-космічних колоній" для запобігання Апокаліпсису
Техаський конгресмен Луї Гохмерт вийшов на підлогу Палати представників в середу вранці, щоб попередити американську громадськість про дуже серйозну загрозу для продовження людської раси: гей-колонії. Серйозно. Виступ Гохмерта був розгубленим, божевільним безладдям крайньої правої логіки, за участю Біблії ...