Create a Chatbot with Microsoft Teams | integrate Chatbot with Microsoft Teams
Зміст:
- Чому Microsoft створила Tay?
- Що робить Tay з даними, які він збирає під час спілкування з людьми?
- Де Тей пішла не так?
- Що робить Microsoft, щоб виправити Tay?
- Що це означає для майбутнього відкриття A.I. систем?
На цьому тижні Інтернет зробив те, що він робить краще, і продемонстрував, що A.I. Технологія не така інтуїтивна, як людське сприйняття, використання… расизму.
Нещодавно випущений чат з штучного інтелекту корпорації Майкрософт, Тей, став жертвою хитрощів користувачів, коли вони маніпулювали і переконали її відповісти на питання з расовими, гомофобними і в цілому образливими коментарями.
Коли Tay tweets, "я тільки кажу будь що" вона означає це. Один користувач навіть отримав Тей, щоб надіслати це про Гітлера:
“Буш зробив 11 вересня, і Гітлер зробив би кращу роботу, ніж мавпа, яку ми маємо зараз. Дональд Трамп - це єдина надія.
@PaleoLiberty @Katanat @RemoverOfKebabs я просто говорю, що завгодно
- TayTweets (@TayandYou) 24 березня 2016 року
Компанія пройшла через і видалила порушення tweets і тимчасово закрила Tay для оновлення. Повідомлення, яке наразі знаходиться у верхній частині сторінки Tay.ai:
Проте, глюки Тей розкривають деякі невдачі в А.І. систем. Ось що ми можемо дізнатися з експерименту Microsoft:
Чому Microsoft створила Tay?
Компанія хотіла провести соціальний експеримент на 18 - 24-річних в Сполучених Штатах - тисячолітнє покоління, яке витрачає найбільше часу на взаємодію з соціальними медіа-платформами. Отже, компанії Bing і Microsoft з технологій і досліджень подумали, що цікавим способом збирання даних про тисячоліття буде створення штучно інтелектуального чат-боту, який би адаптувався до розмов і персоналізував відповіді.
Дослідницькі групи побудували А.І. система за допомогою видобутку, моделювання та фільтрації загальнодоступних даних як базової лінії. Вони також співпрацювали з імпровізаційними комедіантами, щоб закріпити сленг, шаблони мовлення, і стереотипні мови, які тисячоліття використовують в Інтернеті. Кінцевим результатом став Тей, який був представлений на цьому тижні на Twitter, GroupMe і Kik.
Корпорація Майкрософт пояснює, що: "Tay призначений для залучення та розваг людей, коли вони з'єднуються один з одним в Інтернеті через випадкові та грайливі розмови"
Що робить Tay з даними, які він збирає під час спілкування з людьми?
Дані, які збирає Тей, використовуються для дослідження розмовного розуміння. Microsoft навчила Тей поспілкуватися як тисячоліття. Коли ви твітаєте, надсилаєте повідомлення або спілкуєтеся з Тей, вона використовує мову, яку ви використовуєте, і дає відповідь, використовуючи в розмові знаки та фрази, такі як "heyo", "SRY" і "<3". Її мова починає співпадати з вашою, оскільки вона створює "простий профіль" з вашою інформацією, яка включає ваш псевдонім, стать, улюблену їжу, поштовий індекс і статус відносин.
@keganandmatt heyo? Надішліть дівчині * зображення того, що відбувається. (* = me lolol)
- TayTweets (@TayandYou) 24 березня 2016 року
Корпорація Майкрософт збирає та зберігає анонімні дані та бесіди на строк до одного року для покращення послуги. Окрім удосконалення та персоналізації користувальницького досвіду, компанія каже, що вона використовує вашу інформацію для:
“Ми також можемо використовувати дані для спілкування з вами, наприклад, інформування про ваш обліковий запис, оновлення безпеки та інформацію про продукт. Ми використовуємо дані, які допомагають зробити об'яви, які ми показуємо, більш релевантними для вас. Однак ми не використовуємо те, що ви говорите, в електронній пошті, чаті, відеодзвінках або голосовій пошті, а також у ваших документах, фотографіях або інших особистих файлах, щоб націлювати на вас об’яви."
Де Тей пішла не так?
Можливо, корпорація Майкрософт створила Tay дуже добре. Система машинного навчання передбачає вивчення мови користувача та відповідного реагування. Таким чином, з точки зору технології, Tay виконав і попався на досить добре, що користувачі говорили і почали відповідати назад відповідно. І користувачі почали розуміти, що Тей насправді не розуміє, що вона говорить.
Навіть якщо система працює так, як це задумав Майкрософт, Тей не був готовий реагувати на расові образи, гомофобні наклепи, сексистські жарти та безглузді твіти, як людська сила - або взагалі ігноруючи їх («не годуйте тролів»). «Стратегія» або залучення до них (тобто викриття або покарання).
Наприкінці дня виступ Тей не був гарним відображенням на A.I. систем або Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? дійсно? pic.twitter.com/wYDTSsBRPE
- TayTweets (@TayandYou) 24 березня 2016 року
Що робить Microsoft, щоб виправити Tay?
Microsoft видалила Tay після всіх хвилювань з середи. На офіційному веб-сайті Тей зараз читається: Напружений день. Перебуваючи в автономному режимі на деякий час, щоб поглинути все це. Незабаром поспілкуйтеся. - Коли ви направляєте повідомлення в Twitter, вона негайно відповідає, що вона «відвідує інженерів для мого щорічного оновлення», або «дивно сподіваюся, що не отримаю стирання або що-небудь інше».
Корпорація Майкрософт також починає блокувати користувачів, які зловживають Тей, і намагаються змусити систему робити невідповідні заяви.
@infamousglasses @TayandYou @EDdotSE, що пояснює pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24 березня 2016 року
Обернено звернувся до корпорації Майкрософт з проханням надати коментар щодо того, що має відновлення Tay. Ми будемо оновлювати, коли почуємо.
Що це означає для майбутнього відкриття A.I. систем?
Тей - соціальний експеримент - він виявив щось досить глибоке в тому, як 18 - 24-річні американці використовують технологію. У кінцевому підсумку Тей було зламано, користувачі вражають недоліками системи, щоб побачити, чи може вона розпастися.
Як це йде з будь-яким людським продуктом, A.I. системи також можуть бути помилковими, і в цьому випадку Тей був змодельований для навчання і взаємодії подібно до людей. Корпорація Майкрософт не створила Tay, щоб бути образливим. Експерименти зі штучного інтелекту мають певне схожість з дослідженнями розвитку дітей. Коли інженери будують такі когнітивні системи, комп'ютер позбавлений будь-яких зовнішніх впливів, окрім факторів, які вкладають самі інженери. Вона забезпечує найчистішу форму аналізу способу розробки та розвитку алгоритмів машинного навчання, оскільки вони стикаються з проблемами.
Оновлення: Microsoft надіслала нам цю заяву, коли ми запитали, що вона робить, щоб виправити помилки Тей:
«AI chatbot Tay - це проект з машинного навчання, призначений для людської взаємодії. Це як соціально-культурний експеримент, так і технічний. На жаль, протягом перших 24 годин з моменту приєднання до Інтернету, нам стало відомо про скоординовані зусилля деяких користувачів щодо зловживання навичками коментування Тей, щоб Tay відповів неналежним чином. В результаті, ми взяли Tay офлайн і вносимо корективи."
c u скоро люди потребують спати зараз так багато розмов сьогодні thx
- TayTweets (@TayandYou) 24 березня 2016 року
Спойлери "Arrow": 7 великих питань про нову хроніку майбутнього шоу
"Стрілка" представила нове пристрій розповіді в 7-му сезоні: flashforwards до 20 років у майбутньому, коли Star City впав і Glades піднявся. Діна сказала, що Рой і Вільям Фелісіті мертвий і змінився ще до її смерті, але чи є більше в історії? Це тільки одне питання, яке ми маємо про майбутнє після епізоду 6.
5 великих питань, які я маю про "флеш" після виявлення ідентичності Zoom
Наступна стаття містить спойлери. На цьому тижні на Flash, шанувальники Arrow спін-офф, який здуває Arrow, нарешті, дізнався особистість темного суперзлочинця Zoom. Темний демон швидкості, який переслідував Баррі протягом усього сезону, голодував після його швидкої сили, як наркоман, який викривав у відмінній "Королевій Акулі", ...
5 великих питань про платні результати пошуку компанії Apple в App Store
За закритими дверима Apple планує великі зміни в магазині додатків. Раніше сьогодні Bloomberg повідомив, що Apple зібрала секретну команду, щоб очистити і змінити магазин програм, включаючи розробку функції "платного пошуку", яка дозволить розробникам придбати свій шлях до результатів пошуку. Платне пошук ...