Os tokens ajudam você a controlar como o ChatGPT responde. Aqui está o que são e como usá-los.
O ChatGPT conquistou o mundo tecnológico e não faltam avanços e atualizações. Mas, apesar do uso de tecnologia avançada, existem alguns fatores limitantes na versão atual.
Um desses fatores é o sistema de token, que continua quebrando o ciclo de evolução, deixando o utilitário do aplicativo de joelhos. Se você usa o ChatGPT, talvez queira saber sobre os tokens do ChatGPT e o que fazer quando os tokens acabarem.
Vamos dar um passo para trás e dar a você uma visão de tudo o que há para saber sobre os mecanismos de trabalho subjacentes do aplicativo.
O que é um token ChatGPT?
Se você for pela fachada do aplicativo, verá apenas uma linguagem de computador que obedece aos seus comandos e lhe dá as respostas que você procura. No entanto, o back-end é apenas um monte de código, aprendendo a cada minuto e se atualizando com as perguntas que responde.
O ChatGPT converte cada palavra em um token legível sempre que você faz uma pergunta. Para detalhar ainda mais, os tokens são fragmentos de texto e cada linguagem de programação usa um conjunto diferente de valores de token para entender os requisitos.
Como os computadores não entendem os valores de texto diretamente, eles os dividem em uma combinação de números, geralmente chamados de incorporações. Você pode até considerar incorporações como listas Python, que se assemelham a uma lista de números relacionados, como [1.1,2.1,3.1,4.1…n].
Depois que o ChatGPT obtém a entrada inicial, ele tenta prever a próxima entrada possível com base nas informações anteriores. Ele seleciona toda a lista de tokens anteriores e, usando sua síntese de codificação, tenta antecipar a entrada subsequente do usuário. Ele utiliza e prevê um token por vez para tornar mais simples para o idioma compreender o uso.
Para aprimorar as previsões e melhorar a precisão, ele pega toda a lista de incorporações e a passa por camadas transformadoras para estabelecer associações entre as palavras. Por exemplo, quando você faz uma pergunta como "Quem é Thomas Edison?", o ChatGPT seleciona as palavras mais valiosas da lista: Quem e Edison.
As camadas do transformador têm seu papel a desempenhar em todo o processo. Essas camadas são uma forma de arquitetura de rede neural treinada para selecionar as palavras-chave mais relevantes de uma sequência de palavras. No entanto, o processo de treinamento não é tão simples quanto parece, pois leva muito tempo para treinar as camadas do transformador em gigabytes de dados.
Embora o ChatGPT preveja apenas um token por vez, sua tecnologia auto-regressiva é programada para prever e retroalimentar o modelo primário para liberar a saída. O modelo é ajustado para executar apenas uma vez para cada token, portanto, o resultado é impresso uma palavra por vez. A saída para automaticamente quando o aplicativo encontra um comando de token de parada.
Por exemplo, se você consultar a calculadora de token no site ChatGPT, poderá calcular o uso de token com base em suas perguntas.
Vamos inserir algum texto de exemplo, como:
Como explicar o uso de tokens em Bate-papoGPT?
De acordo com a calculadora, existem 46 caracteres nesta string, que consumirão 13 tokens. Se você dividi-lo em IDs de token, parece algo assim:
[2437, 466, 314, 4727, 262, 779, 286, 16326, 287, 24101, 38, 11571, 30]
Conforme Calculadora de token OpenAI:
Uma regra prática útil é que um token geralmente corresponde a aproximadamente 4 caracteres de texto para texto em inglês comum. Isso se traduz em aproximadamente ¾ de uma palavra (portanto, 100 tokens ~= 75 palavras).
Gratuito vs. Tokens pagos
Para dar a você uma ideia do que há no aplicativo ChatGPT, o OpenAI oferece uma assinatura de token limitada gratuita. Se você quiser experimentar a API do ChatGPT, use o crédito gratuito de US$ 5, que é válido por três meses. Assim que o limite acabar (ou o período de avaliação terminar), você pode pagar conforme o uso, o que aumenta a cota máxima para US$ 120.
ChatGPT Plus: a assinatura paga vale a pena?
Para melhorar ainda mais, você pode até se inscrever no Oferta ChatGPT Plus, o que custa US $ 20 por mês. Dado o uso extensivo e a popularidade de todo o modelo de IA, aqui estão os principais recursos do modelo de assinatura paga:
- Acesso ao ChatGPT, mesmo quando o site está inativo devido ao fluxo de usuários
- Taxas de resposta melhoradas
- Acesso em primeira mão a novos recursos e lançamentos
Se você acha que esses recursos valem a pena e estão no seu caminho, você pode se inscrever para a assinatura paga e se beneficiar deles imediatamente.
Estrutura de preços do token ChatGPT
Existem alguns modelos de aplicativos diferentes disponíveis, que você pode escolher com base em seus requisitos:
Modelo |
Preço para 1.000 tokens (prompt) |
Preço por 1000 fichas (conclusão) |
---|---|---|
Ada |
$0.0004 |
$0.0004 |
Babbage |
$0.0005 |
$0.0005 |
curie |
$0.0020 |
$0.0020 |
Da Vinci |
$0.0200 |
$0.0200 |
ChatGPT |
$0.0020 |
$0.0020 |
Contexto GPT-4 8k |
$0.0300 |
$0.0600 |
Contexto GPT-4 32k |
$0.0600 |
$0.1200 |
Ada é o mais rápido, enquanto DaVinci é o modelo mais poderoso desta lista de modelos. O prompt é a pergunta, enquanto a conclusão lida com as respostas.
Limites Máximos de Tokens
Cada modelo permite definir o número máximo de tokens em cada consulta. Esse método controla o número máximo de tokens que o aplicativo gera em uma única chamada, limitando a saída. O recurso max_token é bastante útil, especialmente quando você deseja controlar o comprimento de sua saída, evitando o uso excessivo de créditos e uso de token. O comprimento padrão é fixado em 2.048 tokens, enquanto o máximo pode ser definido em 4.096 tokens.
Restringir o uso do token pode resultar em respostas curtas, o que pode limitar a saída e prejudicar sua experiência de uso.
ChatGPT3 tem um limite superior de 4096; no entanto, com a introdução do ChatGPT4, os limites de token são aumentados, da seguinte forma:
Modelo |
Preço para 1.000 tokens (prompt) |
---|---|
Ada |
2048 |
Babbage |
2048 |
curie |
2048 |
Da Vinci |
4096 |
ChatGPT |
4096 |
Contexto GPT-4 8k |
8192 |
Contexto GPT-4 32k |
32768 |
Se sua saída for truncada, você deverá aumentar o limite máximo especificado em seu painel. Lembre-se de que a soma de seu prompt e tokens máximos deve ser sempre menor que igual ao limite máximo de tokens do modelo.
Por exemplo, dentro do modelo ChatGPT, o prompt_tokens + max_tokens <= 4096 fichas.
Aprenda a controlar seus prompts do ChatGPT para obter melhores resultados
Não importa como você usa o aplicativo orientado a IA, é provável que você tenha que criar maneiras de jogar de maneira inteligente com suas perguntas e frases. Dependendo de seus padrões de uso, você provavelmente usará o ChatGPT extensivamente para cada tarefa.
Para obter os melhores resultados, você deve aprender a trabalhar com a metodologia de token e aprimorar suas habilidades para garantir que seus limites de uso permaneçam intactos e, ao mesmo tempo, fornecer as melhores respostas possíveis.