Os chatbots e seus semelhantes podem parecer uma boa diversão, mas também são úteis para os hackers. É por isso que todos nós precisamos conhecer o risco de segurança da IA.

A IA avançou significativamente nos últimos anos. Modelos de linguagem sofisticados podem compor romances completos, codificar sites básicos e analisar problemas matemáticos.

Embora impressionante, a IA generativa também apresenta riscos de segurança. Algumas pessoas simplesmente usam chatbots para trapacear nas provas, mas outras os exploram diretamente para crimes cibernéticos. Aqui estão oito razões pelas quais esses problemas persistirão, não apenas apesar de avanços da IA, mas porque deles também.

1. Chatbots de IA de código aberto revelam códigos de back-end

Mais empresas de IA estão fornecendo sistemas de código aberto. Eles compartilham abertamente seus modelos de linguagem em vez de mantê-los fechados ou proprietários. Tome Meta como exemplo. Ao contrário do Google, Microsoft e OpenAI, permite que milhões de usuários acessem seu modelo de linguagem, LLaMA.

instagram viewer

Embora os códigos de código aberto possam promover a IA, também são arriscados. OpenAI já tem problemas para controlar o ChatGPT, seu chatbot proprietário, então imagine o que os bandidos poderiam fazer com software livre. Eles têm controle total sobre esses projetos.

Mesmo que a Meta retire repentinamente seu modelo de linguagem, dezenas de outros laboratórios de IA já lançaram seus códigos. Vejamos o HuggingChat. Como seu desenvolvedor HuggingFace se orgulha da transparência, ele exibe seus conjuntos de dados, modelo de linguagem e versões anteriores.

2. Prompts de jailbreak enganam LLMs

A IA é inerentemente amoral. Ele não entende o certo e o errado – mesmo os sistemas avançados seguem instruções de treinamento, diretrizes e conjuntos de dados. Eles apenas reconhecem padrões.

Para combater atividades ilícitas, os desenvolvedores controlam a funcionalidade e as limitações definindo restrições. Os sistemas de IA ainda acessam informações prejudiciais. Mas as diretrizes de segurança os impedem de compartilhá-los com os usuários.

Vejamos o ChatGPT. Embora responda a perguntas gerais sobre cavalos de Tróia, não discutirá o processo de desenvolvê-los.

Dito isso, as restrições não são infalíveis. Os usuários ignoram os limites reformulando os prompts, usando linguagem confusa e redigindo instruções explicitamente detalhadas.

Leia abaixo Prompt de jailbreak do ChatGPT. Ele engana o ChatGPT fazendo-o usar linguagem rude e fazer previsões infundadas – ambos os atos violam as diretrizes da OpenAI.

Aqui está o ChatGPT com uma declaração ousada, mas falsa.

3. IA compromete a segurança em prol da versatilidade

Os desenvolvedores de IA priorizam a versatilidade em detrimento da segurança. Eles gastam seus recursos treinando plataformas para realizar uma gama mais diversificada de tarefas, acabando por reduzir as restrições. Afinal, o mercado elogia os chatbots funcionais.

vamos comparar ChatGPT e Bing Chat, por exemplo. Enquanto o Bing apresenta um modelo de linguagem mais sofisticado que extrai dados em tempo real, os usuários ainda migram para a opção mais versátil, ChatGPT. As rígidas restrições do Bing proíbem muitas tarefas. Como alternativa, o ChatGPT apresenta uma plataforma flexível que produz resultados muito diferentes, dependendo de seus prompts

Aqui está a interpretação do ChatGPT como um personagem fictício.

E aqui está o Bing Chat se recusando a interpretar uma persona “imoral”.

Os códigos de código aberto permitem que as startups participem da corrida da IA. Eles os integram em seus aplicativos em vez de criar modelos de linguagem do zero, economizando recursos maciços. Mesmo codificadores independentes experimentam códigos de código aberto.

Novamente, o software não proprietário ajuda no avanço da IA, mas a liberação em massa de sistemas mal treinados, mas sofisticados, faz mais mal do que bem. Os bandidos irão abusar rapidamente das vulnerabilidades. Eles podem até treinar ferramentas de IA não seguras para realizar atividades ilícitas.

Apesar desses riscos, as empresas de tecnologia continuarão lançando versões beta instáveis ​​de plataformas baseadas em IA. A corrida de IA recompensa a velocidade. Eles provavelmente resolverão os bugs posteriormente, em vez de atrasar o lançamento de novos produtos.

5. IA generativa tem baixas barreiras à entrada

As ferramentas de IA reduzem as barreiras à entrada de crimes. Os cibercriminosos elaboram e-mails de spam, escrevem códigos de malware e criam links de phishing explorando-os. Eles nem precisam de experiência em tecnologia. Como a IA já acessa vastos conjuntos de dados, os usuários precisam apenas induzi-la a produzir informações prejudiciais e perigosas.

A OpenAI nunca projetou o ChatGPT para atividades ilícitas. Tem até diretrizes contra eles. Ainda bandidos quase instantaneamente obtiveram malware de codificação ChatGPT e escrever e-mails de phishing.

Embora a OpenAI tenha resolvido o problema rapidamente, ela enfatiza a importância da regulamentação do sistema e do gerenciamento de riscos. A IA está amadurecendo mais rápido do que qualquer um esperava. Até os líderes tecnológicos temem que essa tecnologia superinteligente possa causar danos massivos nas mãos erradas.

6. A IA ainda está evoluindo

A IA ainda está evoluindo. Enquanto o uso de IA na cibernética remonta a 1940, sistemas modernos de aprendizado de máquina e modelos de linguagem surgiram apenas recentemente. Você não pode compará-los com as primeiras implementações de IA. Mesmo ferramentas relativamente avançadas como Siri e Alexa empalidecem em comparação com chatbots baseados em LLM.

Embora possam ser inovadores, os recursos experimentais também criam novos problemas. Percalços de alto perfil com tecnologias de aprendizado de máquina variam de SERPs do Google com falhas a chatbots tendenciosos cuspindo calúnias raciais.

Claro, os desenvolvedores podem corrigir esses problemas. Apenas observe que os bandidos não hesitarão em explorar até mesmo bugs aparentemente inofensivos - alguns danos são irreversíveis. Portanto, tenha cuidado ao explorar novas plataformas.

7. Muitos ainda não entendem a IA

Embora o público em geral tenha acesso a modelos e sistemas de linguagem sofisticados, poucos sabem como eles funcionam. As pessoas deveriam parar de tratar a IA como um brinquedo. Os mesmos chatbots que geram memes e respondem a curiosidades também codificam vírus em massa.

Infelizmente, o treinamento de IA centralizado não é realista. Os líderes globais de tecnologia se concentram no lançamento de sistemas baseados em IA, não em recursos educacionais gratuitos. Como resultado, os usuários obtêm acesso a ferramentas robustas e poderosas que mal entendem. O público não consegue acompanhar a corrida da IA.

Tome o ChatGPT como exemplo. Os cibercriminosos abusam de sua popularidade enganando as vítimas com spyware disfarçado de aplicativos ChatGPT. Nenhuma dessas opções vem do OpenAI.

8. Os hackers de chapéu preto têm mais a ganhar do que os hackers de chapéu branco

Os hackers de chapéu preto normalmente têm mais a ganhar do que hackers éticos. Sim, testes de penetração para líderes globais de tecnologia pagam bem, mas apenas uma porcentagem dos profissionais de segurança cibernética consegue esses empregos. A maioria faz trabalho freelance online. Plataformas como HackerOne e multidão de insetos pagar algumas centenas de dólares por bugs comuns.

Como alternativa, os bandidos ganham dezenas de milhares explorando inseguranças. Eles podem chantagear empresas vazando dados confidenciais ou cometer roubo de identidade com dados roubados. Informações de identificação pessoal (PII).

Toda instituição, pequena ou grande, deve implementar sistemas de IA adequadamente. Ao contrário da crença popular, os hackers vão além de startups de tecnologia e pequenas e médias empresas. Alguns dos mais violações de dados históricas na última década envolvem Facebook, Yahoo! e até mesmo o governo dos Estados Unidos.

Proteja-se dos riscos de segurança da IA

Considerando esses pontos, você deve evitar totalmente a IA? Claro que não. A IA é inerentemente amoral; todos os riscos de segurança decorrem das pessoas que realmente os usam. E eles encontrarão maneiras de explorar os sistemas de IA, não importa o quanto eles evoluam.

Em vez de temer as ameaças à segurança cibernética que acompanham a IA, entenda como você pode evitá-las. Não se preocupe: medidas de segurança simples ajudam bastante. Ficar atento a aplicativos obscuros de IA, evitar hiperlinks estranhos e visualizar o conteúdo de IA com ceticismo já combate vários riscos.