Штучний інтелект почне позначати образливі коментарі, що розміщуються в спільнотах в соціальній мережі Facebook. Передбачається, що завдяки цій програмі можна буде спростити роботу адміністраторів груп, повідомляє CNN.
В результаті користувачі, які відповідають за модерацію сторінок, отримуватимуть повідомлення про можливий конфлікт серед передплатників.
Записи з неприйнятною лексикою в групах отримають плашки «moderation alert» ( «оповіщення модератора»).
З новим способом маркування та оповіщення стане можливим своєчасно приймати необхідні дії для локалізації конфлікту в мережі. Однак нові обмеження не можна буде застосувати до таких тем, як вакцинація, політика, а також культурні відмінності.
Програмний інструмент, як вважають в Facebook, стане в нагоді 70 мільйонам користувачів, керуючим сторінками.
Після того, як адміністратор дізнається про конфлікт, він зможе уповільнити дискусію.