FraudGPT é um modelo de linguagem ajustado para auxiliar criminosos em atividades fraudulentas. Aprenda o que é se proteger contra ameaças potenciais.

A ascensão da inteligência artificial (IA) é uma faca de dois gumes. Como toda tecnologia transformadora, a IA oferece imenso potencial, mas também enormes riscos. Apesar do esforço enfático para regulamentar a IA, os agentes de ameaças parecem ter se adiantado.

Uma nova ferramenta no estilo ChatGPT, FraudGPT, está ganhando força entre os cibercriminosos, permitindo que eles automatizem e executem melhor grande parte de suas operações de fraude. Qualquer um pode se tornar uma vítima, por isso é importante se manter informado. Aqui está tudo o que sabemos sobre FraudGPT até agora.

O que é fraudeGPT?

O FraudGPT é uma ferramenta de IA alimentada por um grande modelo de linguagem que é particularmente ajustado para ajudar criminosos cibernéticos a cometer crimes cibernéticos. A ferramenta de IA baseada em assinatura permite que os agentes de ameaças facilitem suas atividades criminosas, como carding, phishing e criação de malware.

Embora os detalhes sobre a ferramenta permaneçam muito limitados, pesquisadores da Netenrich, uma empresa de pesquisa de segurança, descobriram vários anúncios na dark web anunciando a ferramenta. De acordo com relatório de pesquisa da Netenrich, as taxas de assinatura variam entre US$ 200 por mês e US$ 1.700 por ano.

Para visualizar melhor a ferramenta, você pode pensar em FraudGPT como ChatGPT, mas para fraude. Mas como funciona exatamente o FraudGPT e como os cibercriminosos o estão usando?

Como funciona o FraudGPT?

Crédito da imagem: freepik

Em sua essência, o FraudGPT não é significativamente diferente de qualquer ferramenta baseada em um grande modelo de linguagem. Em outras palavras, a própria ferramenta é uma interface interativa para os criminosos acessarem um tipo especial de modelo de linguagem que foi ajustado para cometer crimes cibernéticos.

Ainda não entendeu? Aqui está uma ideia aproximada do que estamos falando. Nos primeiros dias do lançamento do ChatGPT, o chatbot AI poderia ser usado para fazer praticamente qualquer coisa, inclusive ajudar criminosos cibernéticos a criar malware. Isso foi possível porque o modelo de linguagem subjacente do ChatGPT foi treinado em um conjunto de dados que provavelmente continha amostras de uma ampla gama de dados, incluindo dados que poderiam ajudar um empreendimento criminoso.

Grandes modelos de linguagem são normalmente alimentados com tudo, desde coisas boas, como teorias científicas, informações sobre saúde e política, para os não tão bons, como amostras de código de malware, mensagens de carding e campanhas de phishing e outros criminosos materiais. Ao lidar com o tipo de conjuntos de dados necessários para treinar modelos de linguagem como o tipo que alimenta o ChatGPT, é quase inevitável que o modelo contenha amostras de materiais indesejados.

Apesar dos esforços tipicamente meticulosos para eliminar os materiais indesejados no conjunto de dados, alguns escapam, e geralmente ainda são suficientes para dar ao modelo a capacidade de gerar materiais para facilitar cibercrime. É por isso que com o direito engenharia imediata, você pode obter ferramentas como ChatGPT, Google Bard e Bing AI para ajudá-lo a escrever e-mails fraudulentos ou malware de computador.

Se ferramentas como o ChatGPT podem ajudar criminosos cibernéticos a cometer crimes, apesar de todos os esforços para tornar esses chatbots de IA seguros, agora pense no poder que uma ferramenta como FraudGPT poderia trazer, considerando que foi especificamente ajustado em materiais maliciosos para torná-lo adequado para cibercrime. É como se o gêmeo malvado do ChatGPT usasse esteróides.

Assim, para usar a ferramenta, os criminosos poderiam apenas solicitar o chatbot como fariam com o ChatGPT. Eles poderiam pedir para, digamos, escrever um e-mail de phishing para Jane Doe, que trabalha na empresa ABC, ou talvez pedir para escrever malware usando C++ para roubar todos os arquivos PDF de um computador com Windows 10. Os criminosos basicamente criariam uma mecanização maligna e deixariam o chatbot fazer o trabalho pesado.

Como você pode se proteger do FraudGPT?

Apesar de ser um novo tipo de ferramenta, a ameaça representada pelo FraudGPT não é fundamentalmente diferente. Pode-se dizer que introduz mais automação e eficiência em métodos já estabelecidos de execução de crimes cibernéticos.

Os criminosos que usam a ferramenta poderiam, pelo menos teoricamente, escrever e-mails de phishing mais convincentes, planejar melhor golpes e criar malware mais eficaz, mas eles ainda dependem principalmente das formas estabelecidas de executar seus nefastos planos. Como resultado, as formas estabelecidas para se proteger ainda se aplicam:

  • Desconfie de mensagens não solicitadas pedindo informações ou direcionando você para clicar em links. Não forneça informações nem clique em links nessas mensagens, a menos que você verifique a fonte.
  • Entre em contato com as empresas diretamente usando um número verificado e independente para verificar a legitimidade. Não use informações de contato fornecidas em mensagens suspeitas.
  • Use senhas fortes e exclusivas, difíceis de decifrar e adote a autenticação de dois fatores quando disponível para todas as contas. Nunca compartilhe senhas ou códigos enviados a você.
  • Verifique regularmente os extratos da conta em busca de atividades suspeitas.
  • Mantenha o software atualizado e use ferramentas antivírus ou antimalware.
  • Fragmente documentos que contenham informações pessoais ou financeiras quando não forem mais necessários.

Para saber mais sobre como se proteger, leia nosso guia sobre como se proteger na era da IA.

Mantenha-se informado para se proteger

O surgimento de ferramentas como o FraudGPT nos lembra que, apesar de todo o bem que a IA pode fazer por nós, ela ainda representa uma ferramenta muito poderosa nas mãos dos invasores.

À medida que os governos e as grandes empresas de IA partem em uma corrida frenética para aprovar melhores maneiras de regular a IA, é importante estar ciente da ameaça que a IA representa atualmente e tomar as precauções necessárias para proteger você mesmo.