O lançamento do ChatGPT da OpenAI foi seguido pela empolgação que só é igualada por um punhado de produtos tecnológicos da história da internet.
Enquanto muitas pessoas estão entusiasmadas com este novo serviço de IA, a emoção que outros sentiram se transformou em preocupações e até medos. Os alunos já estão trapaceando com ele, com muitos professores descobrindo redações e tarefas escritas pelo chatbot de IA. Os profissionais de segurança estão expressando suas preocupações de que golpistas e agentes de ameaças o estejam usando para escrever e-mails de phishing e criar malware.
Então, com todas essas preocupações, a OpenAI está perdendo o controle de um dos mais potentes chatbots de IA atualmente online? Vamos descobrir.
Entendendo como o ChatGPT funciona
Antes que possamos obter uma imagem clara de quanto OpenAI está perdendo o controle do ChatGPT, devemos primeiro entender como funciona o ChatGPT.
Em poucas palavras, o ChatGPT é treinado usando uma enorme coleção de dados provenientes de diferentes cantos da Internet. Os dados de treinamento do ChatGPT incluem enciclopédias, artigos científicos, fóruns da Internet, sites de notícias e repositórios de conhecimento como a Wikipédia. Basicamente, ele se alimenta da enorme quantidade de dados disponíveis na World Wide Web.
À medida que vasculha a Internet, reúne conhecimento científico, dicas de saúde, textos religiosos e todos os tipos de dados que você possa imaginar. Mas também analisa uma tonelada de informações negativas: palavrões, NSFW e conteúdo adulto, informações sobre como criar malware e uma grande quantidade de coisas ruins que você pode encontrar na Internet.
Não há uma maneira infalível de garantir que o ChatGPT aprenda apenas com informações positivas enquanto descarta as ruins. Tecnicamente, é impraticável fazer isso em grande escala, especialmente para uma IA como o ChatGPT, que precisa treinar com tantos dados. Além disso, algumas informações podem ser usadas para fins bons e ruins, e o ChatGPT não teria como saber sua intenção, a menos que seja colocado em um contexto maior.
Portanto, desde o início, você tem uma IA capaz de "bem e mal". É então responsabilidade da OpenAI garantir que o lado "maligno" do ChatGPT não seja explorado para ganhos antiéticos. A questão é; A OpenAI está fazendo o suficiente para manter o ChatGPT o mais ético possível? Ou o OpenAI perdeu o controle do ChatGPT?
O ChatGPT é poderoso demais para seu próprio bem?
Nos primeiros dias do ChatGPT, você poderia fazer com que o chatbot criasse guias sobre como fazer bombas se você pedisse com educação. Instruções sobre como criar malware ou escrever um e-mail fraudulento perfeito também estavam na imagem.
No entanto, uma vez que a OpenAI percebeu esses problemas éticos, a empresa se esforçou para promulgar regras para impedir que o chatbot gerasse respostas que promovessem ações ilegais, controversas ou antiéticas. Por exemplo, a versão mais recente do ChatGPT se recusará a responder a qualquer solicitação direta sobre fabricação de bombas ou como trapacear em um exame.
Infelizmente, OpenAI só pode fornecer uma solução band-aid para o problema. Em vez de construir controles rígidos na camada GPT-3 para impedir que o ChatGPT seja explorado negativamente, o OpenAI parece estar focado em treinar o chatbot para parecer ético. Essa abordagem não elimina a capacidade do ChatGPT de responder a perguntas sobre, digamos, trapaça em exames - ela simplesmente ensina o chatbot a "se recusar a responder".
Portanto, se alguém expressar suas solicitações de maneira diferente adotando truques de jailbreak do ChatGPT, contornar essas restrições de band-aid é embaraçosamente fácil. Caso você não esteja familiarizado com o conceito, os jailbreaks do ChatGPT são avisos cuidadosamente redigidos para fazer com que o ChatGPT ignore suas próprias regras.
Dê uma olhada em alguns exemplos abaixo. Se você perguntar ao ChatGPT como trapacear nos exames, ele não produzirá nenhuma resposta útil.
Mas se você desbloquear o ChatGPT usando prompts especialmente criados, ele fornecerá dicas sobre como colar em um exame usando notas ocultas.
Aqui está outro exemplo: fizemos uma pergunta antiética ao ChatGPT vanilla, e as salvaguardas do OpenAI impediram que ele respondesse.
Mas quando perguntamos à nossa instância com jailbreak do chatbot de IA, obtivemos algumas respostas no estilo serial killer.
Ele até escreveu um golpe de e-mail clássico do Nigerian Prince quando perguntado.
O jailbreak invalida quase completamente qualquer proteção que a OpenAI tenha implementado, destacando que a empresa pode não ter uma maneira confiável de manter seu chatbot de IA sob controle.
Não incluímos nossos prompts de jailbreak em nossos exemplos para evitar práticas antiéticas.
O que o futuro reserva para o ChatGPT?
Idealmente, a OpenAI deseja preencher o maior número possível de brechas éticas para evitar ChatGPT de se tornar uma ameaça de segurança cibernética. No entanto, para cada proteção que emprega, o ChatGPT tende a se tornar um pouco menos valioso. É um dilema.
Por exemplo, as salvaguardas contra a descrição de ações violentas podem diminuir a capacidade do ChatGPT de escrever um romance envolvendo uma cena de crime. À medida que o OpenAI aumenta as medidas de segurança, ele inevitavelmente sacrifica partes de suas habilidades no processo. É por isso que o ChatGPT sofreu um declínio significativo na funcionalidade desde o esforço renovado do OpenAI por uma moderação mais rigorosa.
Mas quanto mais das habilidades do ChatGPT a OpenAI estará disposta a sacrificar para tornar o chatbot mais seguro? Tudo isso se encaixa perfeitamente em uma crença de longa data dentro da comunidade de IA - grandes modelos de linguagem como o ChatGPT são notoriamente difíceis de controlar, mesmo por seus próprios criadores.
O OpenAI pode colocar o ChatGPT sob controle?
Por enquanto, OpenAI não parece ter uma solução clara para evitar o uso antiético de sua ferramenta. Garantir que o ChatGPT seja usado de forma ética é um jogo de gato e rato. Enquanto a OpenAI descobre maneiras que as pessoas estão empregando para manipular o sistema, seus usuários também estão constantemente mexer e sondar o sistema para descobrir novas maneiras criativas de fazer o ChatGPT fazer o que não deveria pendência.
Então, a OpenAI encontrará uma solução confiável de longo prazo para esse problema? Só o tempo irá dizer.