Mais e mais empresas estão banindo o ChatGPT no local de trabalho, mas o que está por trás das proibições?
Apesar de suas habilidades impressionantes, várias grandes empresas proibiram seus funcionários de usar o ChatGPT.
Em maio de 2023, a Samsung proibiu o uso do ChatGPT e outras ferramentas generativas de IA. Então, em junho de 2023, o Commonwealth Bank of Australia seguiu o exemplo, junto com empresas como Amazon, Apple e JPMorgan Chase & Co. Alguns hospitais, escritórios de advocacia e agências governamentais também proibiram os funcionários de usar ChatGPT.
Então, por que mais e mais empresas estão banindo o ChatGPT? Aqui estão cinco razões principais.
1. Vazamentos de dados
ChatGPT requer uma grande quantidade de dados para treinar e operar de forma eficaz. O chatbot foi treinado usando grandes quantidades de dados derivados da internet e continua sendo treinado.
De acordo com Página de ajuda do OpenAI, todos os dados, incluindo detalhes confidenciais de clientes, segredos comerciais e negócios confidenciais as informações que você fornece ao chatbot podem ser revisadas por seus treinadores, que podem usar seus dados para melhorar seus sistemas.
Muitas empresas estão sujeitas a regulamentos rigorosos de proteção de dados. Como resultado, eles são cautelosos ao compartilhar dados pessoais com entidades externas, pois isso aumenta os riscos de vazamento de dados.
Além disso, o OpenAI não oferece nenhuma proteção de dados infalível e garantia de confidencialidade. Em março de 2023, OpenAI confirmado um bug que permite que alguns usuários visualizem os títulos do chat no histórico de outros usuários ativos. Embora este bug tenha sido corrigido e OpenAI lançou um programa de recompensas por bugs, a empresa não garante a segurança e privacidade dos dados do usuário.
Muitas organizações estão optando por impedir que os funcionários utilizem o ChatGPT para evitar vazamentos de dados, que podem prejudicar sua reputação, levar a perdas financeiras e colocar seus clientes e funcionários em risco.
2. Riscos de segurança cibernética
Enquanto não está claro se o ChatGPT é genuinamente propenso a riscos de segurança cibernética, há uma chance de que sua implantação dentro de uma organização possa introduzir vulnerabilidades potenciais que os ciberataques podem explorar.
Se uma empresa integra o ChatGPT e há pontos fracos no sistema de segurança do chatbot, os invasores podem explorar as vulnerabilidades e injetar códigos de malware. Além disso, a capacidade do ChatGPT de gerar respostas semelhantes às humanas é um ovo de ouro para os invasores de phishing, que podem levar sobre uma conta ou se passar por entidades legítimas para enganar os funcionários da empresa a compartilhar informações confidenciais Informação.
3. Criação de Chatbots personalizados
Apesar de seus recursos inovadores, o ChatGPT pode produzir informações falsas e enganosas. Como resultado, muitas empresas criaram chatbots de IA para fins de trabalho. Por exemplo, o Commonwealth Bank of Australia pediu a seus funcionários que usassem o Gen.ai, um chatbot de inteligência artificial (IA) que usa as informações do CommBank para fornecer respostas.
Empresas como Samsung e Amazon desenvolveram modelos avançados de linguagem natural, para que as empresas possam criar e implantar facilmente chatbots personalizados com base nas transcrições existentes. Com esses chatbots internos, você pode evitar as consequências legais e de reputação associadas ao manuseio incorreto de dados.
4. Falta de regulamentação
Em setores onde as empresas estão sujeitas a protocolos e sanções regulatórias, a falta de orientação regulatória do ChatGPT é um sinal de alerta. Sem condições regulatórias precisas que regem o uso do ChatGPT, as empresas podem enfrentar graves consequências legais ao usar o AI chatbot para suas operações.
Além disso, a falta de regulamentação pode diminuir a responsabilidade e a transparência de uma empresa. A maioria das empresas pode ficar confusa sobre como explicar o Processos de tomada de decisão e medidas de segurança do modelo de linguagem AI aos seus clientes.
As empresas estão restringindo o ChatGPT, temendo possíveis violações das leis de privacidade e regulamentos específicos do setor.
5. Uso Irresponsável por Funcionários
Em muitas empresas, alguns funcionários dependem apenas das respostas do ChatGPT para gerar conteúdo e desempenhar suas funções. Isso gera preguiça no ambiente de trabalho e estanca a criatividade e a inovação.
Ser dependente de IA pode prejudicar sua capacidade de pensar criticamente. Também pode prejudicar a credibilidade de uma empresa, pois o ChatGPT geralmente fornece dados imprecisos e não confiáveis.
Embora o ChatGPT seja uma ferramenta poderosa, usá-lo para atender a consultas complexas que exigem conhecimento específico do domínio pode prejudicar a operação e a eficiência de uma empresa. Alguns funcionários podem não se lembrar de checar os fatos e verificar as respostas fornecidas pelo chatbot de IA, tratando as respostas como uma solução única para todos.
Para mitigar problemas como esses, as empresas estão proibindo o chatbot para que os funcionários possam se concentrar em suas tarefas e fornecer soluções sem erros aos usuários.
Proibições do ChatGPT: é melhor prevenir do que remediar
As empresas que banem o ChatGPT indicam riscos de segurança cibernética, padrões éticos de funcionários e desafios de conformidade regulatória. A incapacidade do ChatGPT de aliviar esses desafios enquanto fornece soluções para o setor atesta suas limitações e precisa evoluir ainda mais.
Enquanto isso, as empresas estão mudando para chatbots alternativos ou simplesmente restringindo os funcionários de utilizar ChatGPT para evitar possíveis violações de dados e protocolos regulatórios e de segurança não confiáveis associados ao chatbot.