Os modelos GPT da OpenAI revolucionaram o processamento de linguagem natural (NLP), mas a menos que você pague pelo premium acesso aos serviços da OpenAI, você não poderá ajustar e integrar seus modelos GPT em seu formulários. Além disso, o OpenAI terá acesso a todas as suas conversas, o que pode ser um problema de segurança se você usar o ChatGPT para negócios e outras áreas mais sensíveis da sua vida. Se você não gosta disso, pode experimentar o GPT4All.
Então, o que exatamente é GPT4All? Como funciona e por que usá-lo no ChatGPT?
O que é GPT4All?
GPT4All é um ecossistema de código aberto usado para integrar LLMs em aplicativos sem pagar por uma assinatura de plataforma ou hardware. Foi criado pela Nomic AI, uma empresa de cartografia da informação que visa melhorar o acesso aos recursos de IA.
O GPT4All foi projetado para rodar em PCs modernos a relativamente modernos, sem precisar de uma conexão com a Internet ou mesmo de uma GPU! Isso é possível, pois a maioria dos modelos fornecidos pelo GPT4All foram quantizados para serem tão pequenos quanto alguns gigabytes, exigindo apenas 4 a 16 GB de RAM para serem executados.
Isso permite que empresas menores, organizações e pesquisadores independentes usem e integrem um LLM para aplicações específicas. E com GPT4All facilmente instalável através de um instalador de um clique, as pessoas agora podem usar GPT4All e muitos de seus LLMs para criação de conteúdo, escrita de código, compreensão de documentos e informações reunião.
Por que usar o GPT4ALL sobre o ChatGPT?
Existem vários motivos pelos quais você pode querer usar o GPT4All sobre o ChatGPT.
- Portabilidade: Os modelos fornecidos pelo GPT4All requerem apenas de quatro a oito gigabytes de armazenamento de memória, não requerem uma GPU para serem executados e podem ser facilmente salvos em uma unidade flash USB com o instalador de um clique do GPT4All. Isso torna o GPT4All e seus modelos verdadeiramente portáteis e utilizáveis em praticamente qualquer computador moderno.
- Privacidade e segurança: Conforme explicado anteriormente, a menos que você tenha acesso ao ChatGPT Plus, todas as suas conversões do ChatGPT podem ser acessadas pelo OpenAI. O GPT4All está focado na transparência e privacidade dos dados; seus dados serão salvos apenas em seu hardware local, a menos que você os compartilhe intencionalmente com GPT4All para ajudar a aumentar seus modelos.
- Modo offline: O GPT é um modelo proprietário que requer acesso à API e uma conexão constante com a Internet para consultar ou acessar o modelo. Se você perder a conexão com a Internet ou tiver um problema no servidor, não terá acesso ao ChatGPT. Este não é o caso do GPT4All. Como todos os dados já estão armazenados em um pacote de quatro a oito gigabytes e a inferência é feita localmente, você não precisa de uma conexão com a Internet para acessar nenhum modelo no GPT4All. Você pode continuar conversando e ajustando seu modelo mesmo sem uma conexão com a Internet.
- Livre e de código aberto: Vários LLMs fornecidos pela GPT4All são licenciados sob a GPL-2. Isso permite que qualquer pessoa ajuste e integre seus próprios modelos para uso comercial sem precisar pagar por licenciamento.
Como funciona o GPT4All
Conforme discutido anteriormente, o GPT4All é um ecossistema usado para treinar e implantar LLMs localmente em seu computador, o que é um feito incrível! Normalmente, carregar um LLM padrão de 25 a 30 GB exigiria 32 GB de RAM e uma GPU de nível empresarial.
Para comparar, os LLMs que você pode usar com GPT4All requerem apenas 3 GB a 8 GB de armazenamento e podem ser executados em 4 GB a 16 GB de RAM. Isso torna possível a execução de um LLM inteiro em um dispositivo de borda sem a necessidade de uma GPU ou assistência de nuvem externa.
Os requisitos de hardware para executar LLMs no GPT4All foram significativamente reduzidos graças à quantização da rede neural. Ao reduzir o peso da precisão e as ativações em uma rede neural, muitos dos modelos fornecidos pelo GPT4All podem ser executados na maioria dos computadores relativamente modernos.
Os dados de treinamento usados em alguns dos modelos disponíveis foram coletados por meio da "pilha", que são apenas dados extraídos de conteúdo divulgado publicamente na Internet. Os dados são então enviados para o banco de dados Atlas AI da Nomic AI, que pode ser visto com base em correlações em um mapa vetorial 2D fácil de ver (também conhecido como um banco de dados de vetores de IA).
Ao treinar o modelo Groovy da Nomic AI e usar dados disponíveis publicamente, a Nomic AI conseguiu lançar o modelo em uma licença GPL aberta que permite que qualquer pessoa o use, mesmo para aplicativos comerciais.
Como instalar o GPT4All
Instalar o GPT4All é simples, e agora que o GPT4All versão 2 foi lançado, ficou ainda mais fácil! A melhor maneira de instalar o GPT4All 2 é baixar o instalador de um clique:
Download:GPT4All para Windows, macOS ou Linux (Grátis)
As instruções a seguir são para Windows, mas você pode instalar o GPT4All em cada sistema operacional principal.
Uma vez baixado, clique duas vezes no instalador e selecione Instalar. O Windows Defender pode considerar a instalação maliciosa porque o processo para a Microsoft fornecer assinaturas válidas para aplicativos de terceiros pode levar muito tempo. No entanto, isso deve ser corrigido em breve. Até o momento, contanto que você tenha baixado o aplicativo GPT4All do site oficial, você estará seguro. Clique em Instalar mesmo assim para instalar o GPT4All.
Depois de abrir o aplicativo, você precisará selecionar um modelo para usar. GPT4ALL oferece vários modelos, todos com seus pontos fortes e fracos. Para saber qual modelo baixar, aqui está uma tabela mostrando seus pontos fortes e fracos.
Modelo |
Tamanho |
Observação |
Parâmetros |
Tipo |
Quantização |
---|---|---|---|---|---|
Hermes |
7,58 GB |
|
13 bilhões |
LLaMA |
q4_0 |
GPT4All Falcon |
3,78 GB |
|
7 bilhões |
Falcão |
q4_0 |
Groovy |
8 GB |
|
7 bilhões |
GPT-J |
q4_0 |
ChatGPT-3.5 Turbo |
Mínimo |
|
? |
GPT |
N / D |
ChatGPT-4 |
Mínimo |
|
? |
GPT |
N / D |
Soneca |
7,58 GB |
|
13 bilhões |
LLaMA |
q4_0 |
Bate-papo MPT |
4,52 GB |
|
7 bilhões |
MPT |
q4_0 |
orca |
3,53 GB |
|
7 bilhões |
OpenLLaMAName |
q4_0 |
vicunha |
3,92 GB |
|
7 bilhões |
LLaMA |
q4_2 |
Mago |
3,92 GB |
|
7 bilhões |
LLaMA |
q4_2 |
Assistente sem censura |
7,58 GB |
|
13 bilhões |
LLaMA |
q4_0 |
Tenha em mente que os modelos fornecidos têm diferentes níveis de restrições. Nem todos os modelos podem ser usados comercialmente gratuitamente; alguns precisarão de mais recursos de hardware, enquanto outros precisarão de uma chave de API. Os modelos menos restritivos disponíveis no GPT4All são Groovy, GPT4All Falcon e Orca.
Você pode treinar modelos GPT4All?
Sim, mas não as versões quantizadas. Para ajustar efetivamente os modelos GPT4All, você precisa baixar os modelos brutos e usar GPUs de nível empresarial, como Aceleradores de instinto da AMD ou GPUs Ampere ou Hopper da NVIDIA. Além disso, você precisará treinar o modelo por meio de uma estrutura de treinamento de IA como o LangChain, o que exigirá algum conhecimento técnico.
O ajuste fino de um modelo GPT4All exigirá alguns recursos monetários, bem como algum conhecimento técnico, mas se você quiser apenas alimentar um modelo GPT4All com dados personalizados, você pode continue treinando o modelo por meio da geração aumentada de recuperação (que ajuda um modelo de linguagem a acessar e entender as informações fora de seu treinamento básico para concluir tarefas). Você pode fazer isso solicitando que o GPT4All modele seus dados personalizados antes de fazer uma pergunta. Os dados personalizados devem ser salvos localmente e, quando solicitado, o modelo deve ser capaz de fornecer as informações fornecidas anteriormente.
Você deve usar o GTP4All?
A ideia do GPT4All é fornecer uma plataforma de código aberto e de uso gratuito, na qual as pessoas possam executar grandes modelos de linguagem em seus computadores. Atualmente, o GPT4All e seus modelos quantizados são ótimos para experimentar, aprender e experimentar diferentes LLMs em um ambiente seguro. Para cargas de trabalho profissionais, ainda recomendamos o uso do ChatGPT, pois o modelo é significativamente mais capaz.
No geral, não há motivo para você se limitar a um. Como o caso de uso não se sobrepõe, você deve tentar usar os dois.