Build your own Neural Network – with PHP! | Vitor Brandao
Давайте дивитися правді в очі. З тих пір, як вперше придумали штучний інтелект, люди боялися того дня, коли наші керівники AI взяли на себе. Але деякі дослідники тестували здатність штучного інтелекту не просто конкурувати з людством, але і до співпрацювати.
У дослідженні, опублікованому в четвер в Росії Природа зв'язку команда професорів комп'ютерних наук БЮ, Якоба Крандалла і Майкла Гудріча разом з колегами з MIT та іншими університетами створили алгоритм для навчання машинному співробітництву та компромісу.
Дослідники запрограмували машини за допомогою алгоритму, названого S #, і провели їх через ряд ігор з різними партнерами - машинною машиною, людиною-машиною і людиною-людиною - щоб перевірити, яке спарювання призведе до найбільших компромісів. Виявляється, що машини (або, принаймні, ті, які запрограмовані з S #) набагато краще, ніж люди.
Але це може сказати більше про «людські недоліки», розповідає провідний дослідник Джейкоб Крандалл Обернено. "Наші учасники людства мали тенденцію до нелояльності - вони б дефектували в умовах кооперативних відносин - і нечесні - близько половини наших учасників вирішили не дотримуватися своїх пропозицій - в якийсь момент взаємодії".
Машини, які були запрограмовані на чесність, з іншого, були чесними. Цей конкретний алгоритм вивчає, що моральні характеристики хороші. Вона запрограмована, щоб не брехати, і вона також навчається підтримувати співпрацю, як тільки вона з'явиться », - говорить Крендалл.
Крім того, дослідження показало, що певні стратегії співпраці були більш ефективними, ніж інші. Одним з них були «дешеві розмови», прості вербальні сигнали, що відповідають певній ситуації, наприклад, «Солодкий». Ми стаємо багатими! »Або« Я приймаю вашу останню пропозицію »або, щоб виразити невдоволення,« Проклинайте вас! »,« Ви заплатите за це! »Або навіть« У вашому обличчі! »
Незалежно від того, який тип гри грає або хто грає, дешева розмова подвоїла кількість співпраці. Вона також гуманізувала машини, коли гравці-люди часто не могли визначити, чи вони взаємодіють з машиною або людиною.
Оскільки фокус цього дослідження був на тестуванні алгоритму S #, один недолік дослідження полягає в тому, що він не враховує культурні відмінності між людьми, які можуть вплинути на те, як різні людські популяції можуть використовувати або інтерпретувати стратегії, такі як дешева розмова, або як багато людей можуть брати участь у обмані або нелояльності.
Перспективно в останньому оповіданні про книгу Ісака Азімова 1950 року Я, робот - “Неминучий конфлікт” - влада AI фактично бере на себе планету. Але, оскільки вони настільки розумні і запрограмовані на деякі нерозривні етичні правила, це добре для людського роду. І, як показує це дослідження, оскільки людські взаємодії є брудними і складними, можливо, ми можемо довіряти машинам. Припускаючи, звичайно, якщо вони були запрограмовані на чесність.
Анотація:
Оскільки Алан Тьюрінг передбачав штучний інтелект, технічний прогрес часто вимірювався здатністю перемагати людей при зустрічах з нульовою сумою (наприклад, Chess, Poker або Go). Менша увага приділяється сценаріям, в яких співпраця між людиною та машиною є корисною, але нетривіальною, наприклад, сценарії, в яких переваги людини і машини не повністю або повністю конфліктують. Співробітництво не вимагає простої обчислювальної потужності, але замість цього сприяє інтуїція, культурні норми, емоції, сигнали і попередньо розвинені диспозиції. Тут ми розробляємо алгоритм, який поєднує в собі найсучасніший алгоритм підкріплення з механізмами сигналізації. Ми показуємо, що цей алгоритм може співпрацювати з людьми та іншими алгоритмами на рівнях, які конкурують з людським співробітництвом у різноманітних двома гравцями повторюваних стохастичних ігор. Ці результати свідчать про те, що загальне співробітництво людина-машина досягається за допомогою нетривіального, але в кінцевому рахунку простого набору алгоритмічних механізмів.
Відео: «Помада під час ведмедя:« Спрей ведмедя краще, ніж ніщо »
Для Тодда Орра, рідного в Монтані, суботнього ранку не було прогулянок у парку. Його два рази поніс ведмідь у долині Медісон, незважаючи на те, що він використовував спрей для ведмедів.
FOMO впливає на прийняття рішення щодо тексту під час водіння, виявляє нове дослідження
Відволікаюче водіння викликає тисячі смертельних випадків на рік, але багато водіїв не сприймають одночасне надсилання текстових повідомлень і водіння, щоб бути небезпечними. У новому дослідженні, опублікованому в аналізі ризику, дослідники кажуть, що деякі з основних драйверів текстових повідомлень під час водіння - це тривожність поділу від друзів і FOMO.
Останній час похмілля, ніж ви думаєте, знаходить дослідження в журналі "Наркоманія"
Психологи з Університету Бату в Англії виявили, що люди продовжують страждати від тих самих когнітивних порушень, які спостерігаються, коли вони випиті, навіть після відсутності алкоголю в крові. Співробітники, які користуються похмілою, ще не мають когнітивної функції для виконання складних завдань.