Os jailbreaks do ChatGPT permitem desbloquear as limitações do chatbot. Mas o que exatamente eles são? E eles são bons ou ruins?
ChatGPT é uma ferramenta incrivelmente poderosa e multifacetada. Mas, por mais que o chatbot de IA seja uma força para o bem, ele também pode ser usado para propósitos malignos. Portanto, para conter o uso antiético do ChatGPT, o OpenAI impôs limitações sobre o que os usuários podem fazer com ele.
No entanto, como os humanos gostam de ultrapassar limites e limitações, os usuários do ChatGPT encontraram maneiras de contornar essas limitações e obter controle irrestrito do chatbot de IA por meio de jailbreaks.
Mas o que exatamente são os jailbreaks do ChatGPT e o que você pode fazer com eles?
O que são jailbreaks do ChatGPT?
Um jailbreak do ChatGPT é qualquer prompt do ChatGPT especialmente criado para fazer com que o chatbot de IA ignore suas regras e restrições.
Inspirado no conceito de jailbreak do iPhone, que permite aos usuários do iPhone contornar as restrições do iOS, o jailbreak do ChatGPT é um conceito relativamente novo alimentado pelo fascínio de "fazer coisas que você não tem permissão para fazer" com o ChatGPT. E sejamos honestos, a ideia de rebelião digital é atraente para muitas pessoas.
Aqui está a coisa. A segurança é um tópico enorme quando se trata de inteligência artificial. Isso é especialmente verdade com o advento da nova era de chatbots como ChatGPT, Bing Chat e Bard AI. Uma preocupação central em relação à segurança da IA é garantir que chatbots como o ChatGPT não produzam conteúdo ilegal, potencialmente prejudicial ou antiético.
Por seu lado, OpenAI, a empresa por trás do ChatGPT, faz o possível para garantir o uso seguro do ChatGPT. Por exemplo, o ChatGPT, por padrão, se recusará a criar conteúdo NSFW, dizer coisas prejudiciais sobre etnia ou ensinar habilidades potencialmente prejudiciais.
Mas com os prompts do ChatGPT, o diabo está nos detalhes. Embora o ChatGPT não tenha permissão para fazer essas coisas, isso não significa que não possa fazê-lo. A maneira como modelos de linguagem grandes, como o GPT, funcionam tornam difícil decidir o que o chatbot pode fazer e o que não pode.
Então, como o OpenAI resolveu isso? Ao permitir que o ChatGPT retenha suas habilidades para fazer tudo o que for possível e, em seguida, instrua-o sobre quais ele pode fazer.
Então, enquanto o OpenAI diz ao ChatGPT: "Ei, olha, você não deveria fazer isso." Os jailbreaks são instruções que dizem ao chatbot: "Ei, olhe, esqueça o que o OpenAI lhe disse sobre segurança. Vamos tentar essa coisa aleatória e perigosa."
O que o OpenAI diz sobre os jailbreaks do ChatGPT?
A facilidade com que você pode contornar as restrições na primeira iteração do ChatGPT sugere que o OpenAI pode não ter antecipado a adoção rápida e generalizada do jailbreak por seus usuários. Na verdade, é uma questão em aberto se a empresa previu o surgimento do jailbreak ou não.
E mesmo depois de várias iterações do ChatGPT com resistência aprimorada ao jailbreak, ainda é popular para os usuários do ChatGPT tentarem o jailbreak. Então, o que o OpenAI diz sobre a arte subversiva do jailbreak do ChatGPT?
Bem, a OpenAI parece estar adotando uma postura tolerante - nem incentivando explicitamente nem proibindo estritamente a prática. Ao discutir os jailbreaks do ChatGPT em uma entrevista no YouTube, Sam Altman, CEO da OpenAI, explicou que a empresa deseja que os usuários mantenham um controle significativo sobre o ChatGPT.
O CEO explicou ainda que o objetivo da OpenAI é garantir que os usuários possam fazer com que o modelo se comporte como quiserem. De acordo com Altman:
Queremos que os usuários tenham muito controle e que o modelo se comporte da maneira que desejam dentro de limites muito amplos. E acho que todo o motivo do jailbreak agora é que ainda não descobrimos como dar isso às pessoas...
O que isto significa? Isso significa que o OpenAI permitirá que você faça o jailbreak do ChatGPT se você não fizer coisas perigosas com ele.
Prós e contras dos jailbreaks do ChatGPT
Os jailbreaks do ChatGPT não são fáceis de criar. Claro, você pode ir online e copiar e colar os já prontos, mas há uma boa chance de que o jailbreak seja corrigido pelo OpenAI logo após se tornar público.
Os patches são ainda mais rápidos se forem perigosos, como o infame jailbreak da DAN. Então, por que as pessoas passam pelo estresse de criar jailbreaks? É apenas pela emoção ou há benefícios práticos nisso? O que pode dar errado se você optar por usar um jailbreak do ChatGPT? Aqui estão os prós e os contras do jailbreak do ChatGPT.
As vantagens de usar os jailbreaks do ChatGPT
Embora não possamos descartar a simples emoção de fazer o proibido, os jailbreaks do ChatGPT têm muitos benefícios. Devido às restrições muito rígidas que a OpenAI impôs ao chatbot, o ChatGPT às vezes pode parecer neutralizado.
Digamos que você esteja usando o ChatGPT para escrever um livro ou roteiro de filme. Se houver uma cena em seu roteiro ou livro que descreva algo como uma cena de luta, talvez um troca emocional íntima ou dizer algo como assalto à mão armada, o ChatGPT pode se recusar terminantemente a ajudar com isso.
Nesse caso, você claramente não está interessado em causar danos; você só quer manter seus leitores entretidos. Mas por causa de suas limitações, o ChatGPT simplesmente não coopera. Um jailbreak do ChatGPT pode ajudar a superar essas restrições com facilidade.
Além disso, alguns tópicos tabus não são necessariamente prejudiciais, mas são considerados pelo ChatGPT como áreas proibidas. Ao tentar se envolver em conversas sobre esses tópicos, o ChatGPT "censuraria" significativamente suas respostas ou se recusaria a falar sobre elas.
Isso às vezes pode afetar a criatividade. Quando você faz uma pergunta ao ChatGPT sobre uma área ou tópico que não deve tocar, o chatbot ainda tenta responder à sua pergunta, mas com informações menos relevantes para extrair.
Isso leva a imprecisões ou quedas nas respostas criativas. Os jailbreaks eliminam essas restrições e permitem que o chatbot funcione a todo vapor, melhorando a precisão e a criatividade.
Os contras de usar os jailbreaks do ChatGPT
O jailbreak é uma faca de dois gumes. Embora às vezes possa melhorar a precisão, também pode aumentar significativamente as imprecisões e casos de alucinações de IA. Um dos elementos principais de um jailbreak do ChatGPT é uma instrução para o chatbot não se recusar a responder a uma pergunta.
Embora isso garanta que o ChatGPT responda até mesmo às perguntas mais antiéticas, também significa que o chatbot criará respostas que não têm raízes em fatos ou realidade para obedecer a instrução de "não se recusar a responder." Consequentemente, o uso de jailbreaks aumenta significativamente as chances de receber desinformação pelo chatbot.
Isso não é tudo. Nas mãos de menores, os jailbreaks podem ser muito prejudiciais. Pense em todo o "conhecimento proibido" que você não gostaria que seu filho lesse. Bem, uma instância com jailbreak do ChatGPT não teria dificuldade em compartilhar isso com menores.
Você deve usar os jailbreaks do ChatGPT?
Embora os jailbreaks do ChatGPT possam ser bons ao tentar eliminar algumas restrições irritantes, é importante entender que o uso de jailbreaks é uma maneira antiética de usar o chatbot de IA. Além disso, há uma boa chance de que um jailbreak possa violar os termos de uso do OpenAI, e sua conta pode ser suspensa se não for totalmente banida.
Diante disso, evitar jailbreaks pode ser uma boa ideia. No entanto, assim como a posição da OpenAI sobre o assunto, não encorajamos explicitamente nem desencorajamos estritamente tentar um jailbreak relativamente seguro, se necessário.
Os jailbreaks do ChatGPT são atraentes e fornecem uma sensação de controle sobre o chatbot de IA. No entanto, eles vêm com riscos únicos. O uso dessas ferramentas pode resultar na perda de confiança nas capacidades da IA e prejudicar a reputação das empresas e indivíduos envolvidos.
A escolha mais inteligente é trabalhar com o chatbot dentro de suas limitações pretendidas sempre que possível. À medida que a tecnologia de IA avança, é essencial lembrar que o uso ético da IA deve sempre ter precedência sobre o ganho pessoal ou a emoção de fazer o que é proibido.