ChatGPT: Dados de mais de 100.000 contas foram vendidos na deep web

Milhares de usuários do ChatGPT tiveram seus dados de conta coletados e vendidos na deep web

Mais de 101.000 contas ChatGPT foram roubadas usando software malicioso no ano passado. Pesquisadores de segurança cibernética descobriram as informações nos arquivos de malware negociados em mercados ilícitos da deep web. Os dados são da empresa de segurança cibernética Group-IB.

O ChatGPT é um chatbot de IA criado pela empresa de pesquisa tecnológica OpenAI que pode conversar sobre diversos assuntos. O serviço atingiu 1,8 bilhão de visitas em maio, segundo dados da Similarweb.

Quase 17.000 usuários do ChatGPT na Europa tiveram seus detalhes de conta roubados. A Ásia-Pacífico foi a região mais afetada, com cerca de 41.000 contas roubadas. A Índia foi o país mais atingido, com mais de 12.600 contas roubadas.

Dados roubados

O Group-IB, com sede em Cingapura, vasculha dados da dark web, fóruns cibercriminosos e mercados clandestinos em busca de informações roubadas. A análise da empresa de segurança cibernética mostrou que a maioria das contas do ChatGPT foi acessada por ladrões de informações.

Essas ferramentas permitem que os criminosos acumulem dados de navegadores da Web em computadores infectados. Eles podem então coletar credenciais, incluindo detalhes de cartões bancários.

Além disso, podem roubar informações de carteira criptográfica, cookies e histórico de navegação. Essas informações são empacotadas em logs e enviadas de volta aos servidores dos invasores para reintegração de posse.

O número de logs de malware disponíveis contendo contas ChatGPT comprometidas atingiu um pico de 26.802 em maio.

ChatGPT

A crescente popularidade do ChatGPT trouxe consigo preocupações com a privacidade. A Itália proibiu o chatbot em março por sua suposta “coleta ilegal de dados pessoais” e falta de ferramentas de verificação de idade. O Japão também alertou recentemente a OpenAI para não coletar informações sem permissão explícita.

As repressões ocorreram depois que o chatbot viral sofreu uma violação de dados em 20 de março, que vazou os históricos de conversas e informações de pagamento de usuários. Na época, o CEO da OpenAI, Sam Altman, disse que lamentava o vazamento e que a empresa havia resolvido o problema.

Os riscos percebidos de segurança e privacidade resultaram na proibição da equipe da Apple e da Samsung de usar o ChatGPT.

“As pessoas podem não perceber que suas contas ChatGPT podem, de fato, conter uma grande quantidade de informações confidenciais que são procuradas por cibercriminosos”, disse Jake Moore, consultor global de segurança cibernética da ESET.

“Ele armazena todos os pedidos de entrada por padrão e pode ser visualizado por quem tem acesso à conta. Pode ser uma boa ideia desativar o recurso de salvamento de bate-papo, a menos que seja absolutamente necessário.”

Ele continuou: “Quanto mais dados os chatbots forem alimentados, mais eles serão atraentes para os agentes de ameaças, por isso também é aconselhável pensar cuidadosamente sobre quais informações você insere em chatbots baseados em nuvem e outros serviços”.

você pode gostar também