17 июня 2021, 08:08
ТехнологииВ Facebook тестируют программу для предотвращения конфликтов в комментариях
Фото: Depositphotos/Mactrunk
Искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в соцсети Facebook, сообщает "Газета.ру".
Разработчики ожидают, что программа поможет упростить работу администраторов групп. Пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.
Записи с неприемлемой лексикой в группах получат плашки "moderation aler", что переводится как "оповещение модератора". Таким образом, модераторы смогут своевременно принимать необходимые действия для локализации конфликта в Сети.
После прихода оповещения они смогут замедлить дискуссию. Ожидается, что программный инструмент пригодится 70 миллионам пользователей, управляющим страницами.
Уточняется, что новые ограничения нельзя будет применить к таким темам, как вакцинация, политика и культурные различия.
Ранее сообщалось, что Twitter, Facebook и Instagram возглавили рейтинг интернет-платформ, нарушающих российское законодательство относительно распространения деструктивного контента, который был представлен инициативной группой членов Общественной палаты РФ и Совета при президенте РФ по развитию гражданского общества и правам человека.