Áudio falso feito com IA pode te enganar facilmente; saiba como se proteger
Novas pesquisas mostram que deepfakes de áudio podem enganar a maioria das pessoas. Saiba como se proteger de áudios falsos.
Você não pode confiar nas palavras que ouve, graças aos avanços da inteligência artificial (IA). Um estudo recente mostra que o áudio falso feito por IA pode enganar os ouvintes humanos aproximadamente 25% das vezes.
A preocupação é parte de uma onda crescente de deepfakes gerados por IA, causando preocupações sobre como distinguir fato de ficção.
“Costumava ser ‘ver para crer'”, diz Nasir Memon, professor na NYU Tandon, em entrevista. “Agora, com deepfakes, isso não é mais verdade. A noção de identidade é importante na sociedade. Além disso, a identidade é essencial para a comunicação e colaboração com outras pessoas, e associamos a identidade aos recursos de áudio.”
Áudios falsos que enganam os usuários
Deepfakes de áudio aparentemente estão ficando mais difíceis de detectar. No estudo realizado na University College London, mais de 500 voluntários revisaram uma combinação de vozes genuínas e falsas em inglês e mandarim.
Alguns participantes tiveram exposição prévia a amostras de voz falsificadas para ajudar na identificação. Em média, os participantes identificaram corretamente os deepfakes em 73% das vezes, independentemente de seu treinamento.
“Deepfakes de áudio podem ser muito convincentes e já estão melhorando a cada dia”, disse Shawn Surber, diretor da empresa de segurança cibernética Tanium. “À medida que a tecnologia de IA avança, é provável que esse número suba, aumentando os riscos potenciais associados às personificações deepfake”.
Os cibercriminosos podem usar áudio deepfake para criar identidades fictícias que podem ser difíceis de rastrear, disse Stuart Wells, especialista em verificação de identidade e diretor de tecnologia da Jumio Corporation.
Além disso, o criminoso pode executar invasões de contas, ameaçando a segurança de contas bancárias, contas de e-mail comerciais e outras pertencentes a usuários existentes.
“Para uma vítima desavisada, o áudio deepfake pode ser difícil de detectar. Contudo, quando analisado por modelos de aprendizado de máquina projetados para esse fim, está longe de ser indistinguível da fala gerada por humanos”, acrescentou. “Através da estimativa da anatomia que cria a fala, é possível identificar a origem, seja humana ou máquina.”
Outro perigo dos deepfakes de áudio é a interferência política por meio de eleições desestabilizadoras ou inviáveis, observou Memon.