Dona do ChatGPT, OpenAI cria inteligência artificial capaz de gerar áudio falso de qualquer voz
Dona do ChatGPT anuncia tecnologia que pode ser a porta de entrada para fraudes a partir da clonagem da voz.
Apenas 15 segundos de conversa. Este é o tempo necessário que uma nova ferramenta de inteligência artificial precisa para criar mecanismos que reproduzam a voz dessa pessoa. Isso é o que promete a OpenAI, criadora do ChatGPT, ao anunciar sua nova tecnologia, batizada de “Voice Engine”.
Após receber esse treinamento de pelo menos 15 segundos com a voz de uma pessoa, a inteligência artificial consegue “falar” qualquer palavra, frase ou texto inserido pelo usuário. Inclusive, não é necessário sequer que a fala de treinamento esteja no mesmo idioma nativo do indivíduo. O Voice Engine consegue, por exemplo, pronunciar um texto em português usando a voz de uma pessoa que fala inglês nativo.
A novidade ainda não está disponível para o grande público. Isso porque a OpenAI afirma estar “comprometida com o desenvolvimento de IA segura e amplamente benéfica”. A declaração da empresa provavelmente se refere à cautela para evitar o uso indevido da tecnologia na aplicação de golpes.
Para a empresa, o Voice Engine teria o potencial de ser utilizado em traduções. Assim, os criadores poderiam usar amostras da própria voz para traduzir conteúdos de podcasts, atingindo um público mais amplo. A ferramenta também poderia ser usada por pessoas que sofrem com condições degenerativas na fala.
Outros usos e segurança
A dona do ChatGPT também afirma que a Universidade Brown, nos Estados Unidos, tem explorado a ferramenta para auxiliar pacientes em tratamento de doenças que comprometem a fala. Nesse sentido, eles ressaltam que especialistas já conseguiram restaurar a voz de uma jovem que perdeu a fluência da voz devido a um tumor cerebral. Para isso, usaram apenas o áudio de um vídeo gravado para um projeto escolar.
A grande questão é que, apesar dos benefícios às áreas como a medicina e a indústria do entretenimento, a ferramenta pode representar riscos à segurança, uma vez que seria possível usá-la para fins ilícitos a partir da clonagem de voz de famosos ou não, para a aplicação de golpes.
Dentro deste cenário estão, por exemplo, as deepfakes, que já são utilizadas para atrair vítimas para jogos de apostas falsos na internet. Assim, celebridades e influenciadores digitais já tiveram suas imagens clonadas por inteligência artificial para gerar propagandas falsas e criminosas.
Justamente por isso, o Voice Engine tem acesso restrito por instituições autorizadas pela OpenAI, assim como não há previsão de disponibilizar a ferramenta ao público.