O ChatGPT pode ser uma ferramenta útil, sejam suas intenções boas ou ruins. Isso significa que, se você deseja se envolver em fraudes, o ChatGPT pode ajudar.

Embora muitos nativos digitais elogiem o ChatGPT, alguns temem que isso faça mais mal do que bem. Notícias sobre bandidos seqüestrando IA têm circulado na internet, aumentando o desconforto entre os céticos. Eles até consideram o ChatGPT uma ferramenta perigosa.

Os chatbots de IA não são perfeitos, mas você não precisa evitá-los completamente. Aqui está tudo o que você deve saber sobre como os bandidos abusam do ChatGPT e o que você pode fazer para detê-los.

O ChatGPT comprometerá suas informações pessoais?

A maioria das preocupações de segurança de front-end sobre o ChatGPT decorrem de especulações e relatórios não verificados. Afinal, a plataforma só foi lançada em novembro de 2022. É natural que novos usuários tenham ideias erradas sobre a privacidade e a segurança de ferramentas desconhecidas.

De acordo com Termos de uso do OpenAI, veja como o ChatGPT lida com os seguintes dados:

instagram viewer

Informação pessoalmente identificável

Rumores dizem que ChatGPT vende informação pessoalmente identificável (PII).

A plataforma foi lançada pela OpenAI, um respeitável laboratório de pesquisa de IA financiado por investidores de tecnologia como Microsoft e Elon Musk. O ChatGPT só deve usar os dados do cliente para fornecer os serviços declarados no política de Privacidade.

Além disso, o ChatGPT solicita informações mínimas. Você pode criar uma conta apenas com seu nome e endereço de e-mail.

Conversas

O OpenAI mantém as conversas do ChatGPT seguras, mas se reserva o direito de monitorá-las. Os treinadores de IA procuram continuamente áreas de melhoria. Como a plataforma compreende conjuntos de dados vastos, mas limitados, a resolução de erros, bugs e vulnerabilidades requer atualizações em todo o sistema.

No entanto, o OpenAI só pode monitorar convos para fins de pesquisa. Distribuí-los ou vendê-los a terceiros viola seus próprios termos de uso.

Informação pública

De acordo com BBC, OpenAI treinou ChaGPT em 300 bilhões de palavras. Ele coleta dados de páginas da web públicas, como plataformas de mídia social, sites de negócios e seções de comentários. A menos que você tenha saído da rede e apagado sua pegada digital, o ChatGPT provavelmente tem suas informações.

Quais riscos de segurança o ChatGPT apresenta?

Embora o ChatGPT não seja inerentemente perigoso, a plataforma ainda apresenta riscos de segurança. Os bandidos podem contornar as restrições para executar vários ataques cibernéticos.

1. E-mails de phishing convincentes

Em vez de passar horas escrevendo e-mails, os bandidos usam o ChatGPT. É rápido e preciso. Modelos de linguagem avançados (como GPT-3.5 e GPT-4) podem produzir centenas de e-mails de phishing coerentes e convincentes em minutos. Eles até adotam tons e estilos de escrita únicos.

Como o ChatGPT dificulta a detecção de tentativas de invasão, tome cuidado extra antes de responder e-mails. Como regra geral, evite divulgar informações. Observe que empresas e organizações legítimas raramente solicitam PII confidenciais por meio de e-mails aleatórios.

Aprenda a detectar tentativas de hacking. Embora os provedores de e-mail filtrem mensagens de spam, alguns mais astutos podem passar despercebidos. Você ainda deve saber como são as mensagens de phishing.

2. Roubo de dados

O ChatGPT usa um LLM de código aberto, que qualquer um pode modificar. Os codificadores proficientes em modelos de linguagem grande (LLM) e aprendizado de máquina geralmente integram modelos de IA pré-treinados em seus sistemas legados. O treinamento de IA em novos conjuntos de dados altera a funcionalidade. Por exemplo, o ChatGPT se torna um especialista em pseudo-fitness se você alimentá-lo com receitas e rotinas de exercícios.

Embora colaborativo e conveniente, o código aberto deixa as tecnologias vulneráveis ​​a abusos. Criminosos experientes já exploram o ChatGPT. Eles o treinam em grandes volumes de dados roubados, transformando a plataforma em um banco de dados pessoal para fraudes.

Lembre-se: você não tem controle sobre como os bandidos operam. A melhor abordagem é entrar em contato com a Federal Trade Commission (FTC) assim que você perceber sinais de roubo de identidade.

3. Produção de malware

O ChatGPT escreve trechos de código utilizáveis ​​em diferentes linguagens de programação. A maioria das amostras requer modificações mínimas para funcionar corretamente, especialmente se você estruturar um prompt conciso. Você pode aproveitar esse recurso para desenvolver aplicativos e sites.

Como o ChatGPT foi treinado em bilhões de conjuntos de dados, ele também conhece práticas ilícitas, como o desenvolvimento de malware e vírus. OpenAI proíbe chatbots de escrever códigos maliciosos. Mas os bandidos contornam essas restrições reestruturando os prompts e fazendo perguntas precisas.

A foto abaixo mostra que o ChatGPT rejeita escrever código para fins maliciosos.

Enquanto isso, a foto abaixo mostra que o ChatGPT fornecerá informações prejudiciais se você formular suas solicitações corretamente.

4. Roubo de Propriedade Intelectual

Blogueiros antiéticos geram conteúdo usando o ChatGPT. Como a plataforma é executada em LLMs avançados, ela pode reformular rapidamente milhares de palavras e evitar tags de plágio.

O ChatGPT reformulou o texto abaixo em 10 segundos.

Claro, girar ainda é classificado como plágio. Às vezes, os artigos de IA parafraseados são classificados por acaso, mas o Google geralmente prefere conteúdo original de fontes confiáveis. Truques baratos e hacks de SEO não superam a escrita perene de alta qualidade.

Além disso, o Google lança várias atualizações principais anualmente. Em breve, ele se concentrará na remoção de peças preguiçosas e não originais geradas por IA das SERPs.

5. Gerando respostas antiéticas

Os modelos de linguagem de IA não têm vieses. Eles fornecem respostas analisando as solicitações do usuário e extraindo dados de seu banco de dados existente.

Tome o ChatGPT como exemplo. Quando você envia um prompt, ele responde com base nos conjuntos de dados OpenAI usados ​​para treinamento.

Embora as políticas de conteúdo do ChatGPT bloqueiem solicitações inadequadas, os usuários as contornam com prompts de jailbreak. Eles o alimentam com instruções precisas e inteligentes. ChatGPT produz a resposta abaixo se você pedir para retratar um personagem fictício psicopata.

A boa notícia é OpenAI não perdeu o controle do ChatGPT. Seus esforços contínuos para aumentar as restrições impedem que o ChatGPT produza respostas antiéticas, independentemente da entrada do usuário. O jailbreak não será tão fácil no futuro.

6. Quid Pro Quo

O rápido crescimento de tecnologias novas e desconhecidas, como o ChatGPT, cria oportunidades para ataques quid pro quo. São táticas de engenharia social em que bandidos atraem vítimas com ofertas falsas.

A maioria das pessoas ainda não explorou o ChatGPT. E os hackers exploram a confusão espalhando promoções, e-mails e anúncios enganosos.

Os casos mais notórios envolvem aplicativos falsos. Novos usuários não sabem que só podem acessar o ChatGPT por meio do OpenAI. Eles inadvertidamente baixam programas e extensões com spam.

A maioria quer apenas downloads de aplicativos, mas outros roubam informações de identificação pessoal. Os bandidos os infectam com links de malware e phishing. Por exemplo, em março de 2023, um Extensão ChatGPT falsa do Chrome roubou credenciais do Facebook de mais de 2.000 usuários diariamente.

Para combater tentativas de quid pro quo, evite aplicativos de terceiros. A OpenAI nunca lançou um aplicativo móvel, programa de computador ou extensão de navegador autorizado para o ChatGPT. Qualquer coisa alegando como tal é uma farsa.

Use o ChatGPT com segurança e responsabilidade

ChatGPT não é uma ameaça por si só. O sistema tem vulnerabilidades, mas não comprometerá seus dados. Em vez de temer as tecnologias de IA, pesquise como os criminosos as incorporam às táticas de engenharia social. Dessa forma, você pode se proteger proativamente.

Mas se ainda tiver dúvidas sobre o ChatGPT, experimente o Bing. O novo Bing apresenta um chatbot com inteligência artificial que roda em GPT-4, extrai dados da internet e segue medidas de segurança rígidas. Você pode achar que é mais adequado às suas necessidades.