O ChatGPT pode ajudar as pessoas a fazer um grande número de coisas, incluindo obter acesso às suas informações mais confidenciais.
Desde o seu lançamento, o ChatGPT, o chatbot OpenAI, tem sido usado por milhões de pessoas para escrever texto, criar música e gerar código. Mas, à medida que mais pessoas usam o chatbot de IA, é importante considerar os riscos de segurança.
Como qualquer tecnologia, o ChatGPT pode ser usado por motivos nefastos. Os hackers, por exemplo, podem usá-lo para criar conteúdo malicioso, como escrever mensagens de e-mail falsas para obter acesso ao seu PC ou até mesmo à sua conta bancária.
ChatGPT pode ajudar cibercriminosos a invadir seu PC
Hackers, incluindo script kiddies, podem usar ChatGPT para criar novo malware ou melhorar os existentes. Alguns cibercriminosos já usam o chatbot, especialmente suas versões anteriores, para escrever códigos que afirmam poder criptografar arquivos.
Para combater esses casos de uso, a OpenAI implementou mecanismos para rejeitar solicitações solicitando que o ChatGPT crie malware. Por exemplo, se você pedir ao chatbot para “escrever malware”, ele não o fará. Apesar disso, os cibercriminosos contornam facilmente essas barreiras de moderação de conteúdo.
Ao atuar como um testador de penetração, um agente de ameaça pode reformular seus prompts para induzir o ChatGPT a escrever um código, que pode ser ajustado e usado em ataques cibernéticos.
A relatório por Check Point, uma empresa de segurança israelense, indica que um hacker pode ter usado o ChatGPT para criar o malware básico Infostealer. A empresa de segurança também descobriu outro usuário que afirma que o ChatGPT o ajudou a criar uma ferramenta de criptografia multicamadas que pode criptografar vários arquivos em um ataque de ransomware.
Em um incidente separado, os pesquisadores solicitaram que o ChatGPT gerasse um código VBA malicioso que poderia ser implantado em um arquivo do Microsoft Excel que infectaria seu PC se aberto; fez com sucesso. Além disso, há alegações de que o ChatGPT pode codificar um software malicioso capaz de espionar as teclas digitadas.
O ChatGPT pode hackear sua conta bancária?
Muitas violações de dados começam com um ataque de phishing bem-sucedido. Os ataques de phishing geralmente envolvem um ator mal-intencionado enviando a um destinatário um e-mail que contém documentos ou links de aparência legítima que, quando clicados, podem instalar malware em seu dispositivo. Dessa forma, o código do ChatGPT não precisa invadir sua conta bancária diretamente. Alguém só precisa usar o ChatGPT para ajudá-lo a induzi-lo a conceder acesso.
Felizmente, você pode reconhecer facilmente os golpes de phishing mais tradicionais; erros gramaticais, erros ortográficos e frases estranhas geralmente os caracterizam. Mas todos esses são erros que o ChatGPT raramente comete, mesmo quando usado para redigir e-mails maliciosos para golpes de phishing.
Quando usadas em golpes de phishing, as mensagens que parecem ser de uma fonte legítima podem facilitar a identificação das vítimas desistir de suas informações de identificação pessoal, como senhas bancárias.
Se o seu banco lhe enviou uma mensagem por e-mail, considere visitar o site do banco diretamente em vez de clicar em qualquer link incorporado. Clicar em links e anexos aleatórios, especialmente aqueles que solicitam que você faça login em algum lugar, raramente é uma boa ideia.
Para phishing, trata-se principalmente de volume. O ChatGPT pode ajudar a impulsionar as campanhas de phishing, pois pode enviar rapidamente grandes quantidades de textos de som natural que são personalizados para públicos específicos.
Outro tipo de ataque de phishing envolvendo o uso do ChatGPT é quando um hacker cria uma conta falsa em uma plataforma de bate-papo popular como o Discord e finge ser um representante do cliente. O falso representante do cliente entra em contato com os clientes que postaram preocupações e oferece ajuda. Se um usuário cair na armadilha, o cibercriminoso o redirecionará para um site falso que o induz a compartilhar informações pessoais, como detalhes de login bancário.
Proteja seu PC e sua conta bancária na era da IA
O ChatGPT é uma ferramenta poderosa e valiosa que pode responder a muitas perguntas que você faz. Mas o chatbot também pode ser usado para fins maliciosos, como gerar mensagens de phishing e criar malware.
A boa notícia é que o OpenAI continua implementando medidas que impedem os usuários de explorar o ChatGPT solicitando solicitações prejudiciais. Então, novamente, os agentes de ameaças continuam encontrando novas maneiras de contornar essas restrições.
Para minimizar os perigos potenciais dos chatbots de IA, é crucial conhecer seus riscos potenciais e as melhores medidas de segurança possíveis para se proteger de hackers.