Об этом Unity заявила вчера. Если игроки будут позволять себе грубые выражения, сексизм, расизм и другие неприемлемые вещи, они получат предупреждение от модераторов проекта.
Сумма сделки не разглашается. Unity планирует интегрировать платформу анализа речи в Vivox — голосовой и текстовый чат, используемый в Rainbow Six Siege, PUBG и League of Legends.
«Всё больше игр переходят в онлайн и становятся мультиплеерными. Геймеры инвестируют свои эмоции и время в тайтлы, в которые можно поиграть с другими пользователями. Мы хотим обеспечить безопасность сообщества и защитить его от токсичного поведения, предлагая игрокам, модераторам и разработчикам технологии, которые будут фиксировать агрессивное поведение. Благодаря этому сообщество геймеров станет более дружелюбным и тактичным, что поможет сплотить его», — отметил вице-президент по управлению продуктами и операционными решениями Unity Феликс Те.
Принцип работы системы OTO заключается в машинном обучении и нейросетях. Платформа самостоятельно прослушивает речь, определяет её интонацию, уровень эмоциональности и агрессивность. Но решение о блокировке кого-либо всё равно принимается людьми. Система способна только наблюдать за речью и сообщать о самых экспрессивных моментах в ней.
Unity полагает, что платформа OTO поможет в борьбе с токсичными пользователями в мультиплеерных играх. Чтобы подчеркнуть важность этой проблемы, компания даже провела опрос среди 2076 геймеров США в возрасте от 18 лет. Unity выяснила, что 1066 из них предпочитают играть в мультиплеерные игры, 1010 заходили в кросс-платформенные тайтлы в 2020-м.
Опрос показал, что 68% геймеров сталкивались с токсичностью в многопользовательских играх. Им угрожали насилием, расправой, показывали агрессию в грубой форме. 46% респондентов отметили, что эпизодически встречают токсичных пользователей, а 21% утверждают, что это происходит с ними регулярно. 67% геймеров заявили, что готовы бросить играть в мультиплеерные тайтлы из-за этого.
Как можно заметить, токсичность в онлайн-тайтлах — далеко не редкость. Например, в мае Blizzard заблокировала 350 тысяч аккаунтов Call of Duty за токсичное поведение. В основном игроков банили за расистские никнеймы, оскорбления других геймеров и травлю.