Os funcionários da Samsung vazaram acidentalmente dados privados da empresa via ChatGPT - um exemplo de por que a IA é uma ameaça tão grande à sua privacidade e segurança.

O ChatGPT se tornou um grande problema de segurança e privacidade porque muitos de nós estão compartilhando distraidamente nossas informações privadas nele. O ChatGPT registra todas as conversas que você tem com ele, incluindo todos os dados pessoais que você compartilha. Ainda assim, você não saberia disso, a menos que tenha pesquisado a política de privacidade, os termos de serviço e a página de perguntas frequentes do OpenAI para entender tudo.

É perigoso o suficiente vazar suas próprias informações, mas como grandes empresas estão usando o ChatGPT para processar informações todos os dias, isso pode ser o início de um desastre de vazamento de dados.

Samsung vazou informações confidenciais via ChatGPT

De acordo com Gizmodo, os funcionários da Samsung vazaram por engano informações confidenciais via ChatGPT em três ocasiões distintas no período de 20 dias. Este é apenas um exemplo de como é fácil para as empresas comprometer informações privadas.

O ChatGPT está sendo criticado publicamente por seus problemas de privacidade, por isso é um descuido considerável que a Samsung tenha permitido que isso acontecesse. Alguns países até baniram o ChatGPT para proteger seus cidadãos até que melhore sua privacidade, então você pensaria que as empresas seriam mais cuidadosas sobre como seus funcionários o usam.

Felizmente, parece que os clientes da Samsung estão seguros – pelo menos por enquanto. Os dados violados referem-se apenas a práticas comerciais internas, alguns códigos proprietários que eles estavam solucionando e as atas de uma reunião de equipe, todas enviadas por funcionários. No entanto, teria sido igualmente fácil para a equipe vazar informações pessoais dos consumidores, e é apenas uma questão de tempo até que outra empresa faça exatamente isso. Se isso acontecer, poderíamos esperar ver um aumento maciço em golpes de phishing e roubo de identidade.

Há outra camada de risco aqui também. Se os funcionários usarem o ChatGPT para procurar bugs como fizeram com o vazamento da Samsung, o código que eles digitarem na caixa de bate-papo também será armazenado nos servidores da OpenAI. Isso pode levar a violações que têm um grande impacto na solução de problemas de produtos e programas não lançados pelas empresas. Podemos até acabar vendo informações como planos de negócios inéditos, lançamentos futuros e protótipos vazando, resultando em enormes perdas de receita.

Como acontecem os vazamentos de dados do ChatGPT?

Política de privacidade do ChatGPT deixa claro que grava suas conversas e compartilha os logs com outras empresas e seus treinadores de IA. Quando alguém (por exemplo, um funcionário da Samsung) digita informações confidenciais na caixa de diálogo, elas são gravadas e salvas nos servidores do ChatGPT.

É altamente improvável que os funcionários tenham feito isso de propósito, mas essa é a parte assustadora. A maioria das violações de dados é causada por erro humano. Muitas vezes, isso ocorre porque a empresa falhou em educar sua equipe sobre os riscos de privacidade do uso de ferramentas como IA.

Por exemplo, se eles colarem uma grande lista de contatos no chat e pedirem à IA para isolar os números de telefone dos clientes dos dados, o ChatGPT terá esses nomes e números de telefone em seus registros. Suas informações privadas estão à mercê de empresas com as quais você não as compartilhou, que podem não protegê-las bem o suficiente para mantê-lo seguro. Existem algumas coisas que você pode fazer para mantenha-se seguro após uma violação de dados, mas as empresas devem ser responsáveis ​​por evitar vazamentos.

Moral da história: não conte seus segredos ao ChatGPT

Você pode usar o ChatGPT com segurança para centenas de tarefas diferentes, mas organizar informações confidenciais não é uma delas. Você deve ter cuidado para evitar digitar qualquer coisa pessoal na caixa de bate-papo, incluindo seu nome, endereço, e-mail e número de telefone. É fácil cometer esse erro, então você deve ter cuidado ao verificar seus prompts para garantir que nada tenha entrado acidentalmente.

O vazamento da Samsung nos mostra o quão real é o risco de um vazamento de dados relacionado ao ChatGPT. Infelizmente, veremos mais desses tipos de erros, talvez com impactos muito maiores, pois a IA se torna uma parte essencial dos processos da maioria das empresas.