Запобігання Роботового Апокаліпсису шляхом розгляду цього А.І. Питання моралі

$config[ads_kvadrat] not found

Винтажная реклама Transporter Syncro

Винтажная реклама Transporter Syncro
Anonim

Існує питання морального робототехніки і сценарій, на який необхідно відповісти, щоб штучний інтелект просувався.

Уявіть, що робот контролює шахтний вал, і він розуміє, що є візок, заповнений чотирма людськими шахтарями, що кидаються з-під контролю. Робот може вибирати, щоб перемістити треки і вбити одного невідомого шахтаря, тим самим врятувавши чотирьох у кошику, або зберегти треки, як вони є, і дозволити чотирьом шахтарям зіткнутися зі стіною і померти. Що б ви обрали? Чи змінилася б ваша відповідь, якщо замість одного шахтаря був один? Якщо ми не можемо відповісти на це, як ми програмуємо роботів для прийняття такого рішення?

Це були питання, які поставили перед учасниками і глядачами на Всесвітньому фестивалі науки в Нью-Йорку під назвою «Моральна математика роботів: чи можна кодувати рішення про життя і смерть?» Більшість вирішила направити віз до одного шахтаря і змінити людину дитині не змінили розум багатьох респондентів, але це не було одностайно, і моральні рішення людини часто не є.

Це був гострий приклад боротьби, з якою зіткнеться людство, оскільки штучний інтелект продовжує розвиватися, і ми справляємося з можливістю програмування роботів з мораллю.

"Концепцію, подібну шкоді, важко програмувати", - заявив професор Гарі Маркус, професор психології та нейронних наук у Нью-Йоркському університеті та генеральний директор і співзасновник Geometric Intelligence, Inc. відповідь на програму, і в даний час ми не маємо гарного набору моралі для роботів поза законами Азімова, які були включені до фільмів, таких як iRobot.

Він сказав, що це був пункт його приєднання до групи, щоб почати розмову про те, як ми повинні боротися з мораллю робота.

Елон Маск на цьому тижні обговорював своє занепокоєння з приводу штучного інтелекту Матриця і що люди повинні інвестувати в нейронне мереживо, яке буде приєднуватися до мозку і підвищувати людські пізнавальні здібності. Інші футуристи, такі як Стівен Хокінг, попередили про небезпеку А.І. і на цьому тижні Метт Деймон попередив те ж саме під час свого виступу на MIT.

Інші сценарії включали мілітаризовані системи автономного озброєння і те, як ми морально і філософсько розглядаємо ці людські рішення на полі бою, а також, які рішення можуть робити автономні автомобілі в не дуже далекому майбутньому.

Учасники дискусії не досягли консенсусу щодо того, що робити, але сказав, що А.І. має величезні переваги. це не повинно бути викинуте через вікно тільки тому, що ці питання важкі. Вони запропонували більше говорити відкрито про ці питання морального шахтного стовбура, і, можливо, ми наблизимося до запобігання апокаліпсису робота.

$config[ads_kvadrat] not found