Форма поиска по сайту

В Facebook тестируют программу для предотвращения конфликтов в комментариях

технологии

17 июня 2021, 08:08

Фото: Depositphotos/Mactrunk/

Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в соцсети Facebook, сообщает "Газета.ру".

Разработчики ожидают, что программа поможет упростить работу администраторов групп. Пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.

Записи с неприемлемой лексикой в группах получат плашки "moderation aler", что переводится как "оповещение модератора". Таким образом, модераторы смогут своевременно принимать необходимые действия для локализации конфликта в Сети.

После прихода оповещения они смогут замедлить дискуссию. Ожидается, что программный инструмент пригодится 70 миллионам пользователей, управляющим страницами.

Уточняется, что новые ограничения нельзя будет применить к таким темам, как вакцинация, политика и культурные различия.

Ранее сообщалось, что Twitter, Facebook и Instagram возглавили рейтинг интернет-платформ, нарушающих российское законодательство относительно распространения деструктивного контента, который был представлен инициативной группой членов Общественной палаты РФ и Совета при президенте РФ по развитию гражданского общества и правам человека.