У соцмережі Facebook тестують програму для запобігання конфліктів у коментарях

Depositphotos 391074054 l 2015 pic4 zoom 1500x1500 1373

Штучний інтелект почне позначати образливі коментарі, що розміщуються в спільнотах в соціальній мережі Facebook. Передбачається, що завдяки цій програмі можна буде спростити роботу адміністраторів груп, повідомляє CNN.

В результаті користувачі, які відповідають за модерацію сторінок, отримуватимуть повідомлення про можливий конфлікт серед передплатників.

Записи з неприйнятною лексикою в групах отримають плашки «moderation alert» ( «оповіщення модератора»).

З новим способом маркування та оповіщення стане можливим своєчасно приймати необхідні дії для локалізації конфлікту в мережі. Однак нові обмеження не можна буде застосувати до таких тем, як вакцинація, політика, а також культурні відмінності.

Програмний інструмент, як вважають в Facebook, стане в нагоді 70 мільйонам користувачів, керуючим сторінками.

Після того, як адміністратор дізнається про конфлікт, він зможе уповільнити дискусію.

1 1 1 1 1
Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter