После фиксации программа совершает действие в зависимости от своих настроек
Программа является опасным инструментом цензуры
Компания Modulate разработала службу ToxMod, которая сканирует речь из голосовых чатов видеоигр на предмет т.н. «токсичности» с использованием искусственного интеллекта. Разработчики утверждают, что она может распознавать широкий спектр негативных фраз от расистских высказываний до попыток домогательств во внутриигровых чатах.Служба анализирует речь человека не только на предмет определённых слов, которые могут свидетельствовать о «токсичности», но и интонации, тональность и громкость, с которыми игрок произносит их.
Программа является опасным инструментом цензуры
Компания Modulate разработала службу ToxMod, которая сканирует речь из голосовых чатов видеоигр на предмет т.н. «токсичности» с использованием искусственного интеллекта. Разработчики утверждают, что она может распознавать широкий спектр негативных фраз от расистских высказываний до попыток домогательств во внутриигровых чатах.Служба анализирует речь человека не только на предмет определённых слов, которые могут свидетельствовать о «токсичности», но и интонации, тональность и громкость, с которыми игрок произносит их.
ИИ для ToxMod обучали на основе генеративно-состязательных нейронных сетей. ToxMod сканирует речь игроков и определяет, присутствуют ли в ней какие-либо запрещённые высказывания и слова или с какими эмоциями она была произнесена. Помимо оскорблений, издевательств, служба распознаёт также произнесённую идентификационную информацию — например, номера телефонов — и предпринимает заранее установленные действия. Эти действия могут быть более тонкими, чем обычное заглушение звука, говорят разработчики, например, программа умеет заглушать отдельные националистические высказывания.