facebook-logo

Facebook запускает набор новых инструментов, чтобы помочь администраторам групп контролировать свои сообщества для помощи в разрешении конфликтов — включая функцию на базе искусственного интеллекта, которая, по словам Facebook, может определять «спорные или конфликтные разговоры», происходящие в комментариях.

Этот инструмент называется Conflict Alerts, и Facebook заявляет, что пока просто тестирует его. К слову, подобная функция оповещений по ключевым словам уже есть в Facebook, которая позволяет администраторам создавать настраиваемые оповещения, когда комментаторы используют определенные слова и фразы, но использует модели машинного обучения, чтобы попытаться выявить более тонкие типы проблем. После того, как администратор был предупрежден, он может принять меры, удалив комментарии, удалить пользователя из группы, ограничив доступ, как часто люди могут комментировать или как часто комментарии могут быть сделаны к определенным сообщениям.

Однако неясно, как именно новая функция будет определять «спорные или нездоровые разговоры», Facebook не предоставил дополнительных подробностей. По словам представителя, компания будет использовать модели машинного обучения для анализа «множества сигналов, таких как время ответа и объем комментариев, чтобы определить, имеет ли взаимодействие между пользователями или может привести к негативным взаимодействиям».

от Bolat Mukashev

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *