Соціальні медіа Trolling: Як A.I. Стає краще в очікуванні Shitposts

Shitposting Compilation V27

Shitposting Compilation V27
Anonim

Інтернет - це хеллсайв, керований тролями, і домінують марні аргументи на Facebook або ще гірше. І хоча соціальні медіа-гіганти в Інтернеті нарешті, з нетерпінням, почали розгортати більш потужні зусилля, щоб спробувати відмовитися від зневажливого діалогу, ці рішення, як правило, є реактивними, іншими словами після того, як шкода вже зроблена.

Не дивно, що дослідники штучного інтелекту прагнуть розробити системи, які можуть передбачити онлайн-аргумент, перш ніж це станеться. Але, як нещодавно пояснила команда дослідників з Корнельського університету Обернено, Ця невідкладна інновація не є такою, що далека від спроби розповісти про майбутнє.

"У минулому було зроблено роботу по виявленню того, чи є даний коментар токсичним", - стверджує доктор технічних наук. Джонатан Чанг. «Наша мета дещо інша, ми хочемо знати, чи можна передбачити, чи буде в даний час цивільна розмова колись у майбутньому. Щоб вивчити це питання, ми розглянемо розмови між редакторами Вікіпедії, деякі з яких залишаються цивільними, а інші з них виходять з-під контролю.

Чанг і його колеги проаналізували сотні повідомлень, що посилаються між іноді легко роздратованими кураторами Вікіпедії. Потім вони використали 1270 розмов, які перейшли в наступальну чергу, щоб навчити модель машинного навчання, щоб спростити автоматизацію такого роду модерації. Їх результати були опубліковані в статті, що була представлена ​​на щорічній зустрічі Асоціації для обчислювальної лінгвістики 15 липня.

Отже, як це робити "хай усе заспокоїться"? На щастя, не надто пошарпаний. Це виявилося на 65% точним, трохи нижче, ніж показник успіху людей на 72%. Дослідники виявили цю статистику, створивши онлайн-вікторину, де люди могли перевірити свої навички модерування коментарів. Виявляється, дуже складно зрозуміти, чи користувачі соціальних медіа будуть або дикі, або залишаться цивільними.

«Ідея полягає в тому, щоб показати, що завдання важке, але не неможливе - якщо люди отримали лише 50-відсоткову точність, наприклад, це було б не краще, ніж випадкове вгадування, і не було б ніяких підстав думати, що ми можемо навчити машину робити краще, - говорить Чанг. "Порівняння нашої моделі з людськими реакціями дало нам деяке уявлення про те, наскільки схожий, або несхожий, наш обчислювальний підхід до людської інтуїції".

Чанг не вірить, що це позбавить Інтернет від сміття, але він бачить його як спосіб допомогти модераторам соціальних медіа. Замість того, щоб звертати увагу на мільйони коментарів, які можуть бути опубліковані в день, їх алгоритм може визначити сотні тих, хто ризикує перетворитися на аргумент.

Хоча можна подумати, що розчісування всіх цих потенційно непередбачуваних сварок дасть Чжану напад сум, вчений каже, що досвід фактично дав йому надію на людство.

“У ці дні багато песимізму в онлайн-розмовах, але тут ми бачимо, що навіть у тих випадках, коли розмова починається недружньо, все ще є шанс для учасників подумати, змінити їх тону, і поставив розмову на шлях для більш яскравого результату », говорить він. "Майбутнє не стоїть на камені".

Можливо, є надія на Інтернет.