Наша А.І. Політика застрягла в минулому

$config[ads_kvadrat] not found

Настя и сборник весёлых историй

Настя и сборник весёлых историй
Anonim

Ед Фелтен, заступник головного технічного директора США з питань науки і технологій Білого дому, каже, що люди мають дві основні обов'язки, коли йдеться про розвиток і розвиток штучного інтелекту.

По-перше, він каже, "щоб скористатися перевагами А.І. Друга: «для вирішення ризиків А.І.»

Фелтен розмовляв з кімнатами людей у ​​центрі Скірболу Нью-Йоркського університету для виконавських мистецтв в О.І. Тепер - літня серія лекцій, спонсором якої був Білий дім, який намагався вивчити та обговорити ключові питання, пов'язані з майбутнім А.І. технології.

A.I. знаходиться на роздоріжжі, А.І. Тепер співголови Кейт Кроуфорд (дослідник Microsoft Research) і Мередіт Віттекер (засновник і керівник Google Open Research), відзначив. Приватний та державний сектори повинні працювати разом, щоб створити якийсь можливий А.І. політика. Проблема полягає в тому, що, незважаючи на те, що технологічні компанії досягають величезних успіхів у просуванні фактичного кодексу та архітектури, що йде на створення А.І. всесильна сила, наші нинішні політичні структури застаріли або, що ще гірше, не існують.

Надто довго, A.I. був відкинутий як футуристична концепція, непридатна до сучасності. Але А.І. тихо проявилася в міській політиці, просіюючи масиви даних і надаючи послуги людям таким чином, що просто людська влада не здатна ніколи досягти. Felten наводив приклади, як алгоритми можуть використовувати дані для зв'язування людей з доступним житлом, або забезпечувати прозорість, щоб громадськість мала доступ до цінної інформації.

Це не означає, що А.І. є досконалим; це дуже багато ні. Під час головної панелі на вечір, Latanya Sweeney, А.І. дослідник Гарвардського університету, обговорював історію, яку вона називала: «День мого комп'ютера був расистським».

Кореспондент, який взяв інтерв'ю у Суіні, шукав її ім'я через Google і виявив, що її ім'я з'являється під рекламою сайтів, що пропонують збирати та обмінюватись даними про злочин. Суїні ніколи не був заарештований, і її ім'я не було навіть частиною бази даних веб-сайту, але її ім'я було помітно поміщено в рекламі. Як і кожен хороший вчений, Суіні взяв свій особистий досвід і провів дослідження і виявив, що ці оголошення значно частіше перераховують імена чорних осіб, ніж білі особи. Причина? Доставка цих оголошень Google є результатом алгоритму, який надає більшу вагу тому, що люди натискали, коли з'являлися оголошення. Коли чорним ім'ям користувався Google, більше людей натискали на ці оголошення. Система вивчила цю модель і почала доставляти ці оголошення частіше.

Це цінний урок для обгрунтування обіцянки А.І.: люди в кінцевому рахунку енергетичні технології, а расистські дії з боку людей можуть вплинути на дизайн і алгоритми, і, так, навіть А.І.

Google може легко виявити ці упередження в своїх рекламних службах і працювати, щоб виправити їх. - Вони вирішили не робити цього, - сперечався Суіні.

Чи може сучасна політика політики змусити Google усунути цю проблему? Можливо. Ніколь Вонг, яка була попередником Фельтена з 2013 по 2014 рік, підкреслила, що багато людей, включаючи А.І. самі дослідники - мали реальну стурбованість щодо "зростаючої асиметрії влади" між людьми, які використовують великі дані, та людьми, які, в кінцевому рахунку, зазнали впливу, які коливалися від суб'єктів даних, або тих, які постраждали від рішень, про які свідчать такі дані.

Ці проблеми не обмежуються лише приватним сектором. Рой Остін, заступник помічника президента в Раді з питань внутрішньої політики Білого дому, торкнувся того, як А.І. - або створити масове перенасичення влади та зловживань, коли йдеться про приватне життя цивільних осіб. «Питання стає:« Що ми робимо з цими даними? », - сказав він. Одна справа мати дані, але хто має доступ до них? Як довго? Хто матиме до нього доступ? Знову ж таки, ми не маємо політичних відповідей або рішень цих питань і невизначеностей - і це викликає занепокоєння, оскільки ми все більше і більше контролюємо А.I.

Третій стовп, що викликав занепокоєння, мало стосувався зневажливого використання А.І., і більше стосувався того, як А.І. і автономні системи витісняють людей з робочих місць. Генрі Сіу, А.І. дослідник в Університеті Британської Колумбії обговорював «звичайні» заняття (де працівники виконують дуже специфічний набір завдань, які майже ніколи не відхиляються від встановленого режиму), і як ці втрати робочих місць найбільш уразливі до збоїв у технології. Автоматизація створила різке скорочення цих робочих місць - і вони не повертаються.

Схоже на ту ж саму стару історію індустріалізації, але це не зовсім. Хоча "ця революція вже може бути тут … вона може бути менш екзотичною, ніж ми передбачали", - застеріг Девід Едельман, спеціальний помічник президента з економічної та технологічної політики. І він, і Сіу підкреслили, що рішенням є створення освітнього клімату, де люди не перестануть ходити до школи, вони постійно набувають нових навичок і спеціалізацій, які дозволяють їм адаптуватися с технології.

Це може бути втішним для політиків, щоб усвідомити, що Сполучені Штати не єдині у вирішенні цих питань. Але якщо Америка має намір продовжувати прокладати шлях для А.І., вона повинна зробити це на політичній арені.

Мустафа Сулейман, співзасновник Google DeepMind, обговорив потенціал для А.І. допомогти системам охорони здоров'я і дозволити лікарям на машинних алгоритмах діагностувати певні захворювання і хвороби - звільнити час для людей, щоб придумати методи лікування. Для Сулеймана, який є британцем, це не здавалося настільки поширеним поняттям, щоб створити таку систему, як це встановлено в лікарнях. Однак Суїні зазначив, що "у США ви не маєте контролю над своїми власними даними" - не існує жодних регуляторних заходів для забезпечення того, щоб інформація не зловживала. І це a величезний проблема.

"Я хочу, щоб все, що я можу вичавити з кожного успіху технології", сказав Суіні. «Проблема не в технології; проблема полягає в тому, що ми не встигаємо з державною політикою ».

$config[ads_kvadrat] not found