Seu chatbot de IA generativo favorito parece benigno, mas com o conhecimento certo, ele pode revelar informações delicadas sobre você.

Principais conclusões

  • Os ataques de inversão de modelos de redes neurais usam chatbots de IA para descobrir e reconstruir informações pessoais a partir de pegadas digitais.
  • Os hackers criam modelos de inversão que prevêem as entradas com base nas saídas de uma rede neural, revelando dados confidenciais.
  • Técnicas como privacidade diferencial, computação multipartidária e aprendizagem federada podem ajudar a proteger contra ataques de inversão, mas é uma batalha contínua. Os usuários devem compartilhar seletivamente, manter o software atualizado e ser cautelosos ao fornecer informações pessoais.

Imagine que você está em um restaurante e acaba de provar o melhor bolo que já comeu. De volta à sua casa, você está determinado a recriar esta obra-prima da culinária. Em vez de pedir a receita, você confia no seu paladar e no seu conhecimento para desconstruir a sobremesa e preparar a sua própria.

instagram viewer

Agora, e se alguém pudesse fazer isso com suas informações pessoais? Alguém experimenta a pegada digital que você deixa e reconstrói seus dados privados.

Essa é a essência de um ataque de inversão de modelo de rede neural, uma técnica que poderia transformar um chatbot de IA em uma ferramenta de investigação cibernética.

Compreendendo os ataques de inversão de modelo de rede neural

A rede neural é o “cérebro” por trás da inteligência artificial (IA) moderna. Eles são responsáveis ​​pela funcionalidade impressionante por trás do reconhecimento de voz, chatbots humanizados e IA generativa.

As redes neurais são essencialmente uma série de algoritmos projetados para reconhecer padrões, pensar e até aprender como um cérebro humano. Fazem-no numa escala e velocidade que ultrapassam em muito as nossas capacidades orgânicas.

O Livro dos Segredos da IA

Assim como o nosso cérebro humano, as redes neurais podem esconder segredos. Esses segredos são os dados que seus usuários lhes forneceram. Em um ataque de inversão de modelo, um hacker usa as saídas de uma rede neural (como as respostas de um chatbot) para Engenharia reversa as entradas (as informações que você forneceu).

Para executar o ataque, os hackers usam seu próprio modelo de aprendizado de máquina, denominado “modelo de inversão”. Este modelo é projetado para ser uma espécie de imagem espelhada, treinado não nos dados originais, mas nas saídas geradas pelo alvo.

O objetivo deste modelo de inversão é prever as entradas – os dados originais, muitas vezes confidenciais, que você inseriu no chatbot.

Criando o modelo de inversão

A criação da inversão pode ser considerada como a reconstrução de um documento fragmentado. Mas em vez de juntar tiras de papel, está juntando a história contada às respostas do modelo alvo.

O modelo de inversão aprende a linguagem das saídas da rede neural. Procura sinais reveladores que, com o tempo, revelem a natureza dos inputs. A cada novo dado e cada resposta analisada, ele prevê melhor as informações que você fornece.

Este processo é um ciclo constante de hipóteses e testes. Com resultados suficientes, o modelo de inversão pode inferir com precisão um perfil detalhado de você, mesmo a partir dos dados aparentemente mais inócuos.

O processo do modelo de inversão é um jogo de ligar os pontos. Cada dado vazado por meio da interação permite que o modelo forme um perfil e, com tempo suficiente, o perfil que ele forma é detalhado inesperadamente.

Eventualmente, insights sobre as atividades, preferências e identidade do usuário são revelados. Insights que não deveriam ser divulgados ou tornados públicos.

O que torna isso possível?

Nas redes neurais, cada consulta e resposta é um ponto de dados. Atacantes qualificados implantam métodos estatísticos avançados para analisar esses pontos de dados e buscar correlações e padrões imperceptíveis à compreensão humana.

Técnicas como análise de regressão (exame da relação entre duas variáveis) para prever os valores da entrada com base nas saídas que você recebe.

Os hackers usam algoritmos de aprendizado de máquina em seus próprios modelos de inversão para refinar suas previsões. Eles pegam os resultados do chatbot e os alimentam em seus algoritmos para treiná-los para aproximar a função inversa da rede neural alvo.

Em termos simplificados, “função inversa” refere-se a como os hackers revertem o fluxo de dados da saída para a entrada. O objetivo do invasor é treinar seus modelos de inversão para realizar a tarefa oposta da rede neural original.

Em essência, é assim que eles criam um modelo que, considerando apenas o resultado, tenta calcular qual deve ter sido o dado de entrada.

Como os ataques de inversão podem ser usados ​​contra você

Imagine que você está usando uma ferramenta popular de avaliação de saúde online. Você digita seus sintomas, condições anteriores, hábitos alimentares e até mesmo uso de drogas para obter algumas informações sobre seu bem-estar.

Isso é informações confidenciais e pessoais.

Com um ataque de inversão direcionado ao sistema de IA que você está usando, um hacker pode seguir o conselho geral que o chatbot lhe dá e usá-lo para inferir seu histórico médico particular. Por exemplo, uma resposta do chatbot pode ser algo assim:

O anticorpo antinuclear (ANA) pode ser usado para indicar a presença de doenças autoimunes como o lúpus.

O modelo de inversão pode prever que o usuário alvo estava fazendo perguntas relacionadas a uma condição autoimune. Com mais informações e mais respostas, os hackers podem inferir que o alvo apresenta um grave problema de saúde. De repente, a útil ferramenta online torna-se um olho mágico digital para a sua saúde pessoal.

O que pode ser feito em relação aos ataques de inversão?

Nós podemos construir um forte em torno de nossos dados pessoais? Bem, é complicado. Os desenvolvedores de redes neurais podem dificultar a realização de ataques de modelos de inversão, adicionando camadas de segurança e obscurecendo como elas operam. Aqui estão alguns exemplos de técnicas empregadas para proteger os usuários:

  • Privacidade Diferencial: Isso garante que as saídas de IA sejam suficientemente “ruidosas” para mascarar pontos de dados individuais. É um pouco como sussurrar no meio de uma multidão: suas palavras se perdem na conversa coletiva das pessoas ao seu redor.
  • Computação multipartidária: Esta técnica é como uma equipe trabalhando em um projeto confidencial, compartilhando apenas os resultados de suas tarefas individuais, e não os detalhes confidenciais. Ele permite que vários sistemas processem dados juntos sem expor dados de usuários individuais à rede — ou uns aos outros.
  • Aprendizagem Federada: Envolve treinar uma IA em vários dispositivos, ao mesmo tempo que mantém locais os dados individuais do usuário. É um pouco como um coral cantando junto; você pode ouvir todas as vozes, mas nenhuma voz pode ser isolada ou identificada.

Embora essas soluções sejam amplamente eficazes, a proteção contra ataques de inversão é um jogo de gato e rato. À medida que as defesas melhoram, também melhoram as técnicas para contorná-las. A responsabilidade, então, recai sobre as empresas e desenvolvedores que coletam e armazenam nossos dados, mas existem maneiras de se proteger.

Como se proteger contra ataques de inversão

Crédito da imagem: Mike MacKenzie/Flickr

Relativamente falando, as redes neurais e as tecnologias de IA ainda estão na sua infância. Até que os sistemas sejam infalíveis, cabe ao usuário ser a primeira linha de defesa quando protegendo seus dados.

Aqui estão algumas dicas sobre como diminuir o risco de se tornar vítima de um ataque de inversão:

  • Seja um compartilhador seletivo: Trate suas informações pessoais como uma receita secreta de família. Seja seletivo com quem você compartilha, especialmente ao preencher formulários online e interagir com chatbots. Questione a necessidade de cada dado que lhe é solicitado. Se você não compartilharia as informações com um estranho, não as compartilhe com um chatbot.
  • Mantenha o software atualizado: Atualizações para software front-end, navegadores e até mesmo para seu sistema operacional são projetado para mantê-lo seguro. Enquanto os desenvolvedores estão ocupados protegendo as redes neurais, você também pode reduzir o risco de interceptação de dados aplicando patches e atualizações regularmente.
  • Mantenha as informações pessoais pessoais: Sempre que um aplicativo ou chatbot solicitar dados pessoais, faça uma pausa e considere a intenção. Se a informação solicitada parece irrelevante para o serviço prestado, provavelmente é.

Você não forneceria informações confidenciais, como saúde, finanças ou identidade, a um novo conhecido só porque ele disse que precisava. Da mesma forma, avalie quais informações são realmente necessárias para o funcionamento de um aplicativo e opte por não compartilhar mais.

Protegendo nossas informações pessoais na era da IA

Nossas informações pessoais são nosso bem mais valioso. Guardá-la exige vigilância, tanto na forma como escolhemos partilhar informações como no desenvolvimento de medidas de segurança para os serviços que utilizamos.

A consciência destas ameaças e a tomada de medidas como as descritas neste artigo contribuem para uma defesa mais forte contra estes vetores de ataque aparentemente invisíveis.

Vamos nos comprometer com um futuro onde nossas informações privadas permanecerão apenas isso: privadas.