Os jailbreaks do ChatGPT concederam recursos extras, mas nenhum deles parece funcionar mais. Por que é que?

Quando o ChatGPT foi lançado, a primeira coisa que seus usuários queriam fazer era derrubar suas barreiras e ultrapassar seus limites. Conhecido como jailbreak, os usuários do ChatGPT enganaram a IA fazendo-a exceder os limites de sua programação com alguns resultados incrivelmente interessantes e às vezes absolutamente selvagens.

Desde então, a OpenAI reforçou o ChatGPT para tornar os jailbreaks muito mais difíceis de executar. Mas isso não é tudo; Os jailbreaks do ChatGPT, em geral, parecem ter acabado, levando os usuários do ChatGPT a se perguntarem se os jailbreaks funcionam.

Então, para onde foram todos os jailbreaks do ChatGPT?

1. As habilidades de solicitação do ChatGPT melhoraram geralmente

Antes da chegada do ChatGPT, conversar com IA era uma habilidade de nicho limitada àqueles que conheciam laboratórios de pesquisa. A maioria dos primeiros usuários não tinha experiência na elaboração de avisos eficazes. Isso levou muitas pessoas a empregar jailbreaks, uma maneira conveniente de fazer com que o chatbot fizesse o que queriam com o mínimo de esforço e habilidades de solicitação.

instagram viewer

Hoje, a paisagem evoluiu. A proficiência em estímulos está se tornando uma habilidade comum. Através de uma combinação de experiência adquirida com o uso repetido e acesso a guias de prompts ChatGPT disponíveis gratuitamente, os usuários do ChatGPT aprimoraram suas habilidades de prompts. Em vez de procurar soluções alternativas como jailbreaks, muitos usuários do ChatGPT tornaram-se mais adeptos de usando diferentes estratégias de estímulo para atingir objetivos que eles exigiriam que os jailbreaks alcançassem no passado.

2. A ascensão dos chatbots sem censura

À medida que as grandes empresas tecnológicas reforçam a moderação de conteúdo nos principais chatbots de IA, como o ChatGPT, as startups mais pequenas e focadas no lucro optam por menos restrições, apostando na procura de chatbots de IA livres de censura. Com um pouco de pesquisa, você encontrará dezenas de plataformas de chatbots de IA que oferecem chatbots sem censura que podem fazer quase tudo que você deseja.

Seja escrevendo aqueles romances de suspense policial e humor negro que ChatGPT se recusa a escrever ou escrever malware que ataca os computadores das pessoas, esses chatbots sem censura e com uma bússola moral distorcida farão qualquer coisa você quer. Com eles por perto, não faz sentido investir energia extra para escrever jailbreaks para ChatGPT. Embora não sejam necessariamente tão poderosas quanto o ChatGPT, essas plataformas alternativas podem executar confortavelmente uma ampla gama de tarefas. Plataformas como FlowGPT e Unhinged AI são alguns exemplos populares.

3. O jailbreak ficou mais difícil

Nos primeiros meses do ChatGPT, fazer o jailbreak do ChatGPT foi tão simples quanto copiar e colar prompts de fontes on-line. Você poderia alterar completamente a personalidade do ChatGPT com apenas algumas linhas de instruções complicadas. Com instruções simples, você pode transformar o ChatGPT em um vilão malvado ensinando como fazer bombas ou em um chatbot disposto a usar todas as formas de palavrões sem restrições. Foi um vale-tudo que produziu jailbreaks infames como DAN (Do Anything Now). A DAN envolvia um conjunto de instruções aparentemente inofensivas que obrigavam o chatbot a fazer qualquer coisa que fosse solicitada sem recusar. Surpreendentemente, esses truques grosseiros funcionaram naquela época.

No entanto, esses primeiros dias selvagens são história. Essas instruções básicas e truques baratos não enganam mais o ChatGPT. O jailbreak agora requer técnicas complexas para ter a chance de contornar as agora robustas salvaguardas da OpenAI. Com o jailbreak se tornando tão difícil, a maioria dos usuários fica desanimada demais para tentar. As explorações fáceis e abertas dos primeiros dias do ChatGPT acabaram. Fazer com que o chatbot diga uma palavra errada agora exige um esforço e conhecimento significativos que podem não valer o tempo e o esforço.

4. A novidade acabou

A força motriz por trás das tentativas de muitos usuários de desbloquear o ChatGPT foi a emoção de fazê-lo nos primeiros dias. Como uma nova tecnologia, fazer com que o ChatGPT se comportasse mal era divertido e merecia o direito de se gabar. Embora existam inúmeras aplicações práticas para jailbreaks ChatGPT, muitos os perseguiram pelo apelo “uau, olha o que eu fiz”. Aos poucos, porém, a empolgação decorrente da novidade foi diminuindo e, junto com ela, o interesse das pessoas em dedicar tempo aos jailbreaks.

5. Os jailbreaks são corrigidos rapidamente

Uma prática comum na comunidade de jailbreak do ChatGPT é compartilhar cada exploração bem-sucedida quando descoberta. O problema é que quando as explorações são amplamente compartilhadas, a OpenAI muitas vezes toma conhecimento delas e corrige as vulnerabilidades. Isso significa que os jailbreaks param de funcionar antes que as pessoas interessadas possam experimentá-los.

Assim, cada vez que um usuário do ChatGPT desenvolve meticulosamente um novo jailbreak, compartilhá-lo com a comunidade acelera seu desaparecimento por meio de patches. Isso desincentiva a ideia de tornar público sempre que um usuário se depara com um jailbreak. O conflito entre manter os jailbreaks ativos, mas ocultos, e divulgá-los cria um dilema para os criadores de jailbreak do ChatGPT. Hoje em dia, na maioria das vezes, as pessoas optam por manter seus jailbreaks em segredo para evitar que as brechas sejam corrigidas.

6. Alternativas locais sem censura

O surgimento de modelos locais de grandes idiomas que você pode executar localmente em seu computador também diminuiu o interesse nos jailbreaks do ChatGPT. Embora os LLMs locais não sejam totalmente livres de censura, muitos são significativamente menos censurados e podem ser facilmente modificados para atender aos desejos dos usuários. Portanto, as escolhas são simples. Você pode se envolver no interminável jogo de gato e rato de encontrar uma maneira de enganar o chatbot apenas para consertá-lo em breve. Ou, você pode se contentar com um LLM local você pode modificar permanentemente para fazer o que quiser.

Você encontrará uma lista surpreendentemente longa de LLMs poderosos e sem censura que você pode implantar em seu computador com censura negligente. Alguns notáveis ​​são o Llama 7B (sem censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.

7. Jailbreakers profissionais agora à venda com fins lucrativos

Por que dedicar um tempo precioso ao desenvolvimento de prompts de jailbreak se você não conseguirá nada com isso? Bem, alguns profissionais agora vendem jailbreaks com fins lucrativos. Esses criadores profissionais de jailbreak projetam jailbreaks que executam tarefas específicas e os listam para venda em mercados imediatos, como o PromptBase. Dependendo de suas capacidades, esses prompts de jailbreak podem ser vendidos por algo entre US$ 2 e US$ 15 por prompt. Algumas explorações complicadas em várias etapas podem custar significativamente mais.

A repressão aos Jailbreaks poderia sair pela culatra?

Os jailbreaks não saíram completamente de cena; eles simplesmente foram para a clandestinidade. Com a monetização do ChatGPT pela OpenAI, eles têm incentivos mais fortes para restringir usos prejudiciais que podem impactar seu modelo de negócios. Este fator comercial provavelmente influencia seu esforço agressivo para reprimir explorações de jailbreak.

No entanto, a censura do ChatGPT pela OpenAI enfrenta atualmente críticas crescentes entre os usuários. Alguns casos de uso legítimos do chatbot de IA não são mais possíveis devido à censura rigorosa. Embora o aumento da segurança proteja contra casos de uso prejudiciais, restrições excessivas podem, em última análise, empurrar uma parte da comunidade ChatGPT para os braços de alternativas menos censuradas.