O ChatGPT pode ajudar as pessoas a fazer um grande número de coisas, incluindo obter acesso às suas informações mais confidenciais.

Desde o seu lançamento, o ChatGPT, o chatbot OpenAI, tem sido usado por milhões de pessoas para escrever texto, criar música e gerar código. Mas, à medida que mais pessoas usam o chatbot de IA, é importante considerar os riscos de segurança.

Como qualquer tecnologia, o ChatGPT pode ser usado por motivos nefastos. Os hackers, por exemplo, podem usá-lo para criar conteúdo malicioso, como escrever mensagens de e-mail falsas para obter acesso ao seu PC ou até mesmo à sua conta bancária.

ChatGPT pode ajudar cibercriminosos a invadir seu PC

Hackers, incluindo script kiddies, podem usar ChatGPT para criar novo malware ou melhorar os existentes. Alguns cibercriminosos já usam o chatbot, especialmente suas versões anteriores, para escrever códigos que afirmam poder criptografar arquivos.

Para combater esses casos de uso, a OpenAI implementou mecanismos para rejeitar solicitações solicitando que o ChatGPT crie malware. Por exemplo, se você pedir ao chatbot para “escrever malware”, ele não o fará. Apesar disso, os cibercriminosos contornam facilmente essas barreiras de moderação de conteúdo.

instagram viewer

Ao atuar como um testador de penetração, um agente de ameaça pode reformular seus prompts para induzir o ChatGPT a escrever um código, que pode ser ajustado e usado em ataques cibernéticos.

A relatório por Check Point, uma empresa de segurança israelense, indica que um hacker pode ter usado o ChatGPT para criar o malware básico Infostealer. A empresa de segurança também descobriu outro usuário que afirma que o ChatGPT o ajudou a criar uma ferramenta de criptografia multicamadas que pode criptografar vários arquivos em um ataque de ransomware.

Em um incidente separado, os pesquisadores solicitaram que o ChatGPT gerasse um código VBA malicioso que poderia ser implantado em um arquivo do Microsoft Excel que infectaria seu PC se aberto; fez com sucesso. Além disso, há alegações de que o ChatGPT pode codificar um software malicioso capaz de espionar as teclas digitadas.

O ChatGPT pode hackear sua conta bancária?

Muitas violações de dados começam com um ataque de phishing bem-sucedido. Os ataques de phishing geralmente envolvem um ator mal-intencionado enviando a um destinatário um e-mail que contém documentos ou links de aparência legítima que, quando clicados, podem instalar malware em seu dispositivo. Dessa forma, o código do ChatGPT não precisa invadir sua conta bancária diretamente. Alguém só precisa usar o ChatGPT para ajudá-lo a induzi-lo a conceder acesso.

Felizmente, você pode reconhecer facilmente os golpes de phishing mais tradicionais; erros gramaticais, erros ortográficos e frases estranhas geralmente os caracterizam. Mas todos esses são erros que o ChatGPT raramente comete, mesmo quando usado para redigir e-mails maliciosos para golpes de phishing.

Quando usadas em golpes de phishing, as mensagens que parecem ser de uma fonte legítima podem facilitar a identificação das vítimas desistir de suas informações de identificação pessoal, como senhas bancárias.

Se o seu banco lhe enviou uma mensagem por e-mail, considere visitar o site do banco diretamente em vez de clicar em qualquer link incorporado. Clicar em links e anexos aleatórios, especialmente aqueles que solicitam que você faça login em algum lugar, raramente é uma boa ideia.

Para phishing, trata-se principalmente de volume. O ChatGPT pode ajudar a impulsionar as campanhas de phishing, pois pode enviar rapidamente grandes quantidades de textos de som natural que são personalizados para públicos específicos.

Outro tipo de ataque de phishing envolvendo o uso do ChatGPT é quando um hacker cria uma conta falsa em uma plataforma de bate-papo popular como o Discord e finge ser um representante do cliente. O falso representante do cliente entra em contato com os clientes que postaram preocupações e oferece ajuda. Se um usuário cair na armadilha, o cibercriminoso o redirecionará para um site falso que o induz a compartilhar informações pessoais, como detalhes de login bancário.

Proteja seu PC e sua conta bancária na era da IA

O ChatGPT é uma ferramenta poderosa e valiosa que pode responder a muitas perguntas que você faz. Mas o chatbot também pode ser usado para fins maliciosos, como gerar mensagens de phishing e criar malware.

A boa notícia é que o OpenAI continua implementando medidas que impedem os usuários de explorar o ChatGPT solicitando solicitações prejudiciais. Então, novamente, os agentes de ameaças continuam encontrando novas maneiras de contornar essas restrições.

Para minimizar os perigos potenciais dos chatbots de IA, é crucial conhecer seus riscos potenciais e as melhores medidas de segurança possíveis para se proteger de hackers.