Você entrou em um aplicativo de namoro? Ou você está procurando por amor em outro lugar? Os golpistas podem se aproveitar de você usando inteligência artificial. Veja como.

Aplicativos de namoro online sempre foram um foco de golpes de romance. Os cibercriminosos vão além para roubar dinheiro, informações pessoais e fotos explícitas. Você encontrará seus perfis falsos em todos os lugares.

E com a proliferação de ferramentas generativas de IA, os golpes de romance estão se tornando ainda mais fáceis de executar. Eles diminuem as barreiras de entrada. Aqui estão sete maneiras comuns pelas quais os golpistas românticos exploram a IA - além de como você pode se proteger.

1. Enviando e-mails gerados por IA em massa

Os e-mails de spam estão ficando mais difíceis de filtrar. Os golpistas românticos abusam de ferramentas de IA generativas para escrever mensagens enganosas e convincentes e criar várias contas em questão de horas. Eles se aproximam de centenas quase instantaneamente.

Você verá mensagens de spam geradas por IA em várias plataformas, não apenas em sua caixa de entrada de e-mail. Levar a

instagram viewer
golpe de número errado como um exemplo. Bandidos enviam selfies fofas ou fotos sugestivas em massa. E se alguém responder, eles vão jogar isso como um erro inocente.

Quando alguém estiver na linha, ele será transferido para outra plataforma de mensagens (por exemplo, WhatsApp ou Telegram). A maioria dos esquemas dura semanas. Os golpistas gradualmente constroem confiança antes de pedir aos alvos que participem de esquemas de investimento, assumam suas contas ou paguem por viagens.

Fique seguro evitando totalmente as mensagens de spam. Limite seu envolvimento com estranhos, independentemente de sua aparência ou do que oferecem.

2. Respondendo a mais conversas rapidamente

Os bots estão se espalhando como um incêndio online. imperva relata que bots ruins representaram 30% do tráfego automatizado da web em 2022. Você encontrará um segundos depois de passar pelas correspondências do Tinder.

Uma das razões para esse aumento repentino de bots é a proliferação de ferramentas generativas de IA. Eles produzem bots em massa. Basta inserir o prompt correto e sua ferramenta apresentará um trecho de código completo e eficiente para geração de bot.

Saiba quando você está falando com um bot. Embora a IA use um tom de conversação natural, seu diálogo ainda soa monótono e desajeitado. Afinal, os chatbots apenas seguem padrões. Pode produzir respostas semelhantes a diferentes perguntas, declarações e solicitações.

3. Criando várias identidades a partir de imagens roubadas

2 Imagens

geradores de arte de IA manipular imagens. Tome a demonstração abaixo como exemplo. Alimentamos o Playground AI com uma fotografia espontânea de um cantor famoso - a plataforma produziu três variações em segundos.

Sim, eles têm falhas. Mas observe que usamos uma ferramenta gratuita executando um modelo de texto para imagem desatualizado. Os golpistas produzem resultados mais realistas com iterações sofisticadas. Eles podem renderizar rapidamente centenas de fotos manipuladas e personalizadas a partir de apenas algumas amostras.

Infelizmente, as imagens AI são difíceis de detectar. Sua melhor aposta seria fazer um pesquisa reversa de imagens e filtrar os resultados relevantes.

4. Construindo perfis enganosamente autênticos

Os bots abordam as vítimas em massa. Portanto, os golpistas de romance que preferem um esquema direcionado criam apenas um ou dois perfis de aparência autêntica. Eles usarão IA para parecer convincentes. Ferramentas de IA generativas podem compor descrições de aparência autêntica que soam naturais e genuínas; gramática ruim não será mais um problema.

Aqui está o ChatGPT sugerindo alguns hobbies para listar em um perfil de namoro.

E aqui está o ChatGPT escrevendo uma biografia inteira para o seu perfil de namoro.

Como esse processo consome muito tempo, também requer um retorno maior. Portanto, os golpistas tendem a pedir mais. Depois de ganhar sua confiança, eles pedirão ajuda com vários “problemas”, como contas hospitalares, pagamentos de empréstimos ou mensalidades. Alguns até afirmam visitá-lo se você carregar o ingresso.

Esses cibercriminosos são hábeis em manipular as vítimas. A melhor tática é evitar se envolver com eles desde o início. Não deixe que eles digam nada. Caso contrário, você pode cair gradualmente em seus métodos de engano e gaslighting.

5. Explorando a tecnologia deepfake para extorsão sexual

Ferramentas deepfake avançadas de IA em um ritmo alarmantemente rápido. As novas tecnologias reduzem pequenas imperfeições em vídeos deepfake, como piscadas não naturais, tons de pele irregulares, áudio distorcido e elementos inconsistentes.

Infelizmente, esses erros também servem como bandeiras vermelhas. Permitir que os usuários os removam dificulta a diferenciação entre vídeos legítimos e deepfake.

Bloomberg mostra como qualquer pessoa com conhecimento técnico básico pode manipular sua voz e recursos visuais para replicar outros.

Além de criar perfis de namoro realistas, os golpistas exploram ferramentas deepfake para extorsão sexual. Eles misturam fotos e vídeos públicos com pornografia. Depois de manipular o conteúdo ilícito, eles chantageiam as vítimas e exigem dinheiro, dados pessoais ou favores sexuais.

Não ceda se for alvo. Ligue para 1-800-CALL-FBI, envie uma dica do FBI ou visite o escritório de campo local do FBI caso se encontre nessa situação.

6. Integrando modelos de IA com sistemas de hacking de força bruta

Embora os modelos de linguagem de código aberto ofereçam suporte a alguns avanços da IA, eles também são propensos à exploração. Os criminosos se aproveitam de qualquer coisa. Você não pode esperar que eles ignorem o algoritmo por trás de modelos de linguagem altamente sofisticados como LLaMA e OpenAssistant.

Em golpes de romance, os hackers geralmente integram modelos de linguagem com quebra de senha. Os recursos de NLP e aprendizado de máquina da IA ​​permitem que os sistemas de hackers de força bruta produzam combinações de senhas de maneira rápida e eficiente. Eles podem até fazer previsões informadas se tiverem contexto suficiente.

Você não tem controle sobre o que os golpistas fazem. Para proteger suas contas, certifique-se de crie uma senha verdadeiramente segura incluindo caracteres especiais, combinações alfanuméricas e mais de 14 caracteres.

7. Imitando pessoas reais com clonagem de voz

Os geradores de voz AI começaram como um brinquedo legal. Os usuários transformariam faixas de amostra de seus artistas favoritos em covers ou até mesmo em novas músicas. Tome Heart on My Sleeve como um exemplo. usuário TikTok Ghostwriter977 fez uma música super-realista imitando Drake e The Weeknd, embora nenhum dos artistas a tenha cantado.

Apesar das piadas e memes em torno disso, síntese de fala é muito perigoso. Ele permite que criminosos executem ataques sofisticados. Por exemplo, golpistas românticos exploram ferramentas de clonagem de voz para chamar alvos e deixar gravações enganosas. As vítimas que não estão familiarizadas com a síntese de fala não notarão nada incomum.

Proteja-se dos golpes de clonagem de voz de IA estudando o som das saídas sintetizadas. Explore esses geradores. Eles apenas criam clones quase idênticos - você ainda identificará algumas imperfeições e inconsistências.

Proteja-se contra golpistas de namoro por IA

À medida que as ferramentas de IA generativas avançam, os golpistas de romance desenvolverão novas maneiras de explorá-los. Os desenvolvedores não podem parar esses criminosos. Assuma um papel proativo no combate aos crimes cibernéticos, em vez de apenas confiar que as restrições de segurança funcionam. Você ainda pode usar aplicativos de namoro. Mas certifique-se de conhecer a pessoa do outro lado da tela antes de interagir com ela.

E fique atento a outros esquemas assistidos por IA. Além de golpes de romance, os criminosos usam IA para roubo de identidade, extorsão cibernética, chantagem, ataques de ransomware e hacking de força bruta. Aprenda a combater essas ameaças também.