Descubra o poder da API da OpenAI e todas as possibilidades que ela possibilita.
O poder gerador do ChatGPT causou um frenesi no mundo da tecnologia desde o seu lançamento. Para compartilhar a intuição da IA, a OpenAI lançou as APIs ChatGPT e Whisper em 1º de março de 2023, para que os desenvolvedores explorem e consumam no aplicativo.
As APIs da OpenAI apresentam muitos pontos de extremidade valiosos que facilitam a integração da IA. Vamos explorar o poder das APIs OpenAI para ver como elas podem beneficiar você.
O que a API OpenAI pode fazer?
O API OpenAI pacotes em um monte de utilitários para programadores. Se você pretende fornecer IA no aplicativo diariamente, o OpenAI facilitará sua vida com as seguintes habilidades.
Bater papo
O endpoint de conclusão de bate-papo da OpenAI API ajuda o usuário final a iniciar uma sessão interativa natural e amigável com um assistente virtual usando o modelo GPT-3.5-turbo.
Nos bastidores, a chamada de API usa uma matriz de mensagens de funções e conteúdo. Do lado do usuário, o conteúdo é um conjunto de instruções para o assistente virtual, que envolve o usuário, enquanto para o modelo, o conteúdo é sua resposta.
A função de nível superior é o sistema, onde você define a função geral do assistente virtual. Por exemplo, quando o programador diz ao sistema algo como "você é um assistente virtual útil", você espera que ele responda a várias perguntas dentro de sua capacidade de aprendizado.
Depois de dizer que é "um assistente virtual útil", veja como foi um de nossos bate-papos de linha de comando com o modelo GPT-3.5-turbo:
Você pode até melhorar o desempenho do modelo fornecendo parâmetros como temperatura, penalidade de presença, penalidade de frequência e muito mais. Se você já usou o ChatGPT, já sabe como funciona o modelo de conclusão de bate-papo do OpenAI.
Conclusão do texto
A API de conclusão de texto fornece funcionalidades de conversação, inserção de texto e conclusão de texto com base em modelos GPT-3.5 avançados.
O modelo campeão no endpoint de conclusão de texto é text-davinci-003, que é consideravelmente mais intuitivo do que os modelos de linguagem natural GPT-3. O endpoint aceita um prompt do usuário, permitindo que o modelo responda naturalmente e complete frases simples a complexas usando texto amigável.
Embora o terminal de conclusão de texto não seja tão intuitivo quanto o terminal de bate-papo, ele fica melhor à medida que você aumenta os tokens de texto fornecidos ao modelo text-davinci-003.
Por exemplo, obtivemos algumas conclusões incompletas quando colocamos o modelo em um max_tokens de sete:
No entanto, aumentar o max_tokens para 70 gerou pensamentos mais coerentes:
Fala para texto
Você pode transcrever e traduzir a fala de áudio usando os terminais de transcrição e tradução do OpenAI. Os endpoints de fala para texto são baseados no modelo Whisper v2-large, desenvolvido por meio de supervisão fraca em grande escala.
No entanto, a OpenAI diz que não há diferença entre seu modelo Whisper e o de código aberto. Portanto, oferece oportunidades infinitas para integrar um transcritor multilíngue e um tradutor AI em seu aplicativo em grande escala.
O uso do terminal é simples. Basta fornecer ao modelo um arquivo de áudio e chamar o openai. Audio.translate ou openai. Áudio.transcrever endpoint para traduzi-lo ou transcrevê-lo, respectivamente. Esses endpoints aceitam um tamanho máximo de arquivo de 25 MB e suportam a maioria dos tipos de arquivos de áudio, incluindo mp3, mp4, MPEG, MPGA, m4a, wav e webm.
Comparação de texto
O endpoint de comparação de texto da OpenAI API mede a relação entre os textos usando o modelo text-embedding-ada-002, um modelo de incorporação de segunda geração. A API de incorporação usa esse modelo para avaliar a relação entre textos com base na distância entre dois pontos vetoriais. Quanto maior a diferença, menos relacionados são os textos em comparação.
O endpoint de incorporação apresenta agrupamento de texto, diferenças, relevância, recomendações, sentimentos e classificação. Além disso, cobra por volume de token.
Embora a documentação do OpenAI diga que você pode usar os outros modelos de incorporação de primeira geração, o primeiro é melhor com um preço mais barato. No entanto, a OpenAI adverte que o modelo de incorporação pode mostrar viés social em relação a certas pessoas, conforme comprovado em testes.
Conclusão de código
O endpoint de conclusão de código é construído no OpenAI Codex, um conjunto de modelos treinados usando linguagem natural e bilhões de linhas de código de repositórios públicos.
O endpoint está em versão beta limitada e gratuito, oferecendo suporte para muitas linguagens de programação modernas, incluindo JavaScript, Python, Go, PHP, Ruby, Shell, TypeScript, Swift, Perl e SQL.
Com o modelo code-davinci-002 ou code-cushman-001, o endpoint de conclusão de código pode inserir automaticamente linhas de código ou ativar blocos de código a partir de um prompt do usuário. Embora o último modelo seja mais rápido, o primeiro é a potência do endpoint, pois apresenta inserções de código para preenchimento automático de código.
Por exemplo, você pode gerar um bloco de código enviando um prompt para o terminal no comentário do idioma de destino.
Aqui estão algumas respostas que obtivemos quando tentamos gerar alguns blocos de código em Python e JavaScript por meio do terminal:
Geração de imagem
Este é um dos recursos mais intuitivos da API OpenAI. Com base no modelo de imagem DALL.E, a funcionalidade de imagem da API OpenAI apresenta pontos de extremidade para gerar, editar e criar variações de imagem a partir de prompts de linguagem natural.
Embora ainda não tenha recursos avançados, como upscaling, pois ainda está em beta, suas saídas sem escala são mais impressionantes do que as de geração modelos de arte como Midjourney e difusão estável.
Ao atingir o endpoint de geração de imagem, você só precisa fornecer um prompt, tamanho da imagem e contagem de imagens. Mas o endpoint de edição de imagem exige que você inclua a imagem que deseja editar e uma máscara RGBA marcando o ponto de edição, além dos outros parâmetros.
O ponto final de variação, por outro lado, requer apenas a imagem de destino, a contagem de variação e o tamanho de saída. No momento da redação deste artigo, os endpoints de imagem beta do OpenAI só podem aceitar quadros quadrados no intervalo de 256x256, 512x512 e 1024x1024 pixels.
Criamos um aplicativo simples de geração de imagens usando este endpoint e, embora tenha perdido alguns detalhes, deu um resultado incrível:
Como usar a API OpenAI
O uso da API OpenAI é simples e segue o padrão de consumo da API convencional.
- Instale o openai pacote usando pip: pip instalar openai.Se estiver usando Node, você pode fazer isso usando npm: npm instalar openai.
- Pegue suas chaves de API: Faça login no painel do OpenAI e clique no ícone do seu perfil no canto superior direito. Vá para Exibir chaves de API e clique Criar nova chave secreta para gerar sua chave secreta de API.
- Faça chamadas de API para os endpoints do modelo escolhido por meio de uma linguagem do lado do servidor, como Python ou JavaScript (Node). Alimente-os com suas APIs personalizadas e teste seus endpoints.
- Então buscar APIs personalizadas via JavaScript frameworks como React, Vue ou Angular.
- Apresente os dados (solicitações do usuário e respostas do modelo) em uma IU visualmente atraente e seu aplicativo estará pronto para uso no mundo real.
O que você pode criar com a API OpenAI?
As APIs OpenAI criam pontos de entrada para uso real de aprendizado de máquina e aprendizado por reforço. Embora as oportunidades de criatividade sejam abundantes, aqui estão algumas das coisas que você pode criar com as APIs OpenAI:
- Integre um chatbot de assistente virtual intuitivo em seu site ou aplicativo usando o endpoint de conclusão de chat.
- Crie um aplicativo de edição e manipulação de imagem que possa inserir naturalmente um objeto em uma imagem em qualquer ponto especificado usando os pontos de extremidade de geração de imagem.
- Crie um modelo de aprendizado de máquina personalizado desde o início usando o endpoint de ajuste fino do modelo da OpenAI.
- Corrija legendas e traduções para vídeos, áudio e conversas ao vivo usando o endpoint do modelo de fala para texto.
- Identifique sentimentos negativos em seu aplicativo usando o ponto de extremidade do modelo de incorporação OpenAI.
- Crie plug-ins de conclusão de código específicos da linguagem de programação para editores de código e ambientes de desenvolvimento integrado (IDEs).
Construa infinitamente com as APIs OpenAI
Nossa comunicação diária geralmente envolve a troca de conteúdo escrito. A API OpenAI apenas estende suas tendências criativas e potencial, com casos de uso de linguagem natural aparentemente ilimitados.
Ainda é cedo para a API OpenAI. Mas espere que ele evolua com mais recursos com o passar do tempo.