Call of Duty: Modern Warfare 3 usará IA para filtrar chats de voz tóxicos
A Activision diz que o ‘ToxMod’ pode detectar toxicidade no jogo e será usado em seu próximo título – Call of Duty Modern Warfare III.
A Activision, criadora de Call of Duty, anunciou que começará a usar uma ferramenta de moderação de bate-papo por voz com tecnologia de IA para identificar discurso tóxico em seu próximo título – Call of Duty: Modern Warfare III, que será lançado em 10 de novembro deste ano.
De acordo com uma postagem recente no blog, a Activision se uniu à Modulate para desenvolver uma ferramenta global de moderação de bate-papo por voz chamada ‘ToxMod’, que usa aprendizado de máquina para detectar toxicidade no jogo, como discurso de ódio, assédio, bullying, sexismo e linguagem discriminatória entre outras coisas.
A ferramenta de moderação alimentada por IA se juntará à solução antitoxicidade existente do Call of Duty, que inclui filtragem baseada em texto em 14 idiomas para bate-papo no jogo e um sistema de relatórios.
Versão beta
A Activision já lançou uma versão beta inicial da tecnologia de chat de voz na América do Norte para títulos existentes como Call of Duty: Modern Warfare II e Call of Duty: Warzone.
Como as ferramentas alimentadas por IA são conhecidas por alucinar e produzir vários falsos positivos, especialmente quando se trata de outros idiomas além do inglês, a página de suporte da empresa sugere que o sistema de moderação baseado em IA enviará apenas um relatório sobre comportamento tóxico. No entanto, a decisão de fazer cumprir estas regras ainda caberá a um revisor humano.
Embora a toxicidade não seja exclusiva de Call of Duty, devido à enorme base de usuários da franquia, a empresa diz que está recorrendo ao aprendizado de máquina para automatizar a solução.
A Activision disse que suas medidas antitoxicidade anteriores sinalizaram bate-papos de texto e voz para mais de 1 milhão de contas, com 20 por cento daqueles que foram avisados pela primeira vez para não cometerem comportamentos tóxicos novamente.