Funcionários da Samsung usam ChatGPT no trabalho e vazam dados sem saber

A Samsung também descobriu três instâncias de funcionários vazando informações confidenciais via ChatGPT.

Relatórios recentes sugerem que funcionários da Samsung vazaram acidentalmente informações confidenciais enquanto usavam o ChatGPT para trabalhar.

Caso você tenha perdido o hype, o ChatGPT é um serviço de escrita de inteligência artificial criado pela OpenAI que usa algoritmos de aprendizado de máquina para prever e gerar respostas de texto aos prompts do usuário.

Como os funcionários da Samsung vazaram informações críticas para o ChatGPT

Um relatório da divisão de semicondutores da Samsung permitiu que engenheiros usassem o serviço para ajudá-los a corrigir problemas com seu código-fonte. No entanto, os funcionários involuntariamente inseriram dados confidenciais, como o código-fonte de um novo programa, notas de reuniões internas e informações relacionadas a hardware.

Perturbadoramente, a Samsung também descobriu três casos de funcionários que vazaram informações confidenciais via ChatGPT ao longo de 20 dias. Os segredos comerciais da Samsung agora se tornaram propriedade intelectual da OpenAI, pois o ChatGPT retém os dados de entrada do usuário para refinar ainda mais seus algoritmos.

Em um caso, a Tom’s Hardware relata que um funcionário solicitou ao ChatGPT a otimização de sequências de testes para detecção de falhas em chips, processo altamente confidencial. Essa otimização tem o potencial de economizar uma quantidade significativa de tempo e dinheiro para as empresas de chips, simplificando o processo de teste e verificação do processador.

Em outro caso, um funcionário usou o ChatGPT para converter notas de reunião em uma apresentação que a Samsung não queria que terceiros vissem.

Após esses incidentes, a Samsung Electronics alertou seus funcionários sobre os riscos de divulgar informações confidenciais.

Como os dados agora são armazenados em servidores OpenAI, é impossível recuperá-los ou excluí-los, deixando a empresa vulnerável a consequências potencialmente desastrosas no altamente competitivo setor de semicondutores.

Samsung cria ferramenta de bate-papo de IA própria após incidentes de vazamento

De acordo com o Economist , a Samsung Semiconductor respondeu à série de incidentes de vazamento criando sua própria ferramenta de IA para uso interno. No entanto, o tamanho dos prompts é limitado a 1024 bytes. Não está claro se essa nova ferramenta será tão eficaz quanto o ChatGPT, que já é amplamente utilizado por muitas empresas.

O que vem a seguir para a Samsung?

A Samsung pode não conseguir recuperar ou excluir os dados confidenciais que o OpenAI possui agora, o que, de acordo com o TechRadar, pode tornar o ChatGPT não compatível com o GDPR da UE.

A decisão da Samsung Semiconductor de usar uma ferramenta de IA caseira que pode atender a 1024 bytes por solicitação é apenas uma solução temporária. No entanto, a longo prazo, a empresa precisa encontrar uma solução mais permanente para evitar mais vazamentos de dados.

O incidente aponta os perigos do uso de serviços de IA que retêm dados de entrada do usuário para se treinar. Na altamente competitiva indústria de semicondutores, perder segredos comerciais pode ser desastroso.

Preocupações com o ChatGPT

O professor Uri Gal, da University of Sydney Business School, explica que o uso de dados da OpenAI para treinar o ChatGPT é problemático devido a violações de privacidade e violações na integridade textual.

Os dados não foram obtidos com consentimento e podem potencialmente identificar indivíduos e suas localizações. Mesmo os dados disponíveis publicamente podem ser mal utilizados se revelarem informações fora de seu contexto original.

você pode gostar também