Leitores como você ajudam a apoiar o MUO. Quando você faz uma compra usando links em nosso site, podemos ganhar uma comissão de afiliado. Consulte Mais informação.

A menos que você viva sob uma rocha, provavelmente já ouviu falar e até usou o ChatGPT ou um chatbot de IA semelhante. Embora usar esses chatbots seja certamente divertido, também pode ser perigoso se você não souber o que está fazendo.

Esses chatbots têm limitações e é importante entender quais são. Então, aqui estão seis coisas que você deve evitar perguntar a um chatbot de IA.

1. Diagnóstico médico

Os chatbots de IA são bons em muitas coisas, mas fornecer diagnósticos médicos precisos não é um deles. Claro, eles podem não estar errados o tempo todo, mas confiar em um chatbot para diagnosticar sua doença em vez de um médico é o mesmo que pesquisar seus sintomas no Google.

Um chatbot simplesmente resumirá as informações que extraiu da Internet que podem ou não ser verdadeiras. Mais importante, ele não conhece seu histórico médico ou tolerância a certas substâncias e, portanto, não pode julgar que tipo de tratamento seria adequado para você.

instagram viewer

A internet tende a exagerar as coisas, então não é de admirar que muitas pessoas que procuram seus sintomas se encontrem experimentando hipocondria e ansiedade severa. O uso de chatbots de IA pode replicar o mesmo efeito e piorar as coisas. Para o seu próprio bem, não consultar um chatbot para aconselhamento médico.

2. Revisão de produtos

Um chatbot de IA pode listar facilmente o preço e as especificações de um produto no qual você pode estar interessado, mas nunca pode fornecer uma revisão do produto. Por que? Porque uma revisão de produto, por definição, inclui opinião pessoal, experiência e julgamento do revisor.

A IA não tem a capacidade de ver, cheirar, tocar, saborear ou ouvir e, portanto, as afirmações que faria sobre um produto - qualquer produto, não apenas tecnologia - em sua "análise" seriam falsas.

Por exemplo, um chatbot de IA não pode sentir a sensação de um telefone na mão, a clareza de seu alto-falante, a qualidade de seu motor de vibração, a confiabilidade de seu sensor de impressão digital, a fluidez do software e a versatilidade da câmera sistema.

Se você deseja obter recomendações sobre quais produtos comprar, peça a um chatbot para resumir as avaliações existentes. Você precisará usar um bot AI que pode pesquisar na web, como Bing com ChatGPT integrado.

3. Aconselhamento jurídico

Você pode ter manchetes de que o ChatGPT foi aprovado nos exames da faculdade de direito dos EUA e que os chatbots de IA estão a caminho de entrar em nossos tribunais nos próximos anos. Isso deve ser chocante, mas uma pesquisa rápida diria que, na verdade, estamos tentando inserir a IA em nosso sistema jurídico desde 2015!

Algumas empresas já criaram assistentes jurídicos especializados em IA, chegando a comercializá-los como uma alternativa acessível aos advogados humanos. O conceito claramente tem mérito para pessoas que não podem pagar pelo último, mas os problemas com esses chamados advogados de IA são reais demais para serem ignorados.

A diferença óbvia é que os chatbots de IA carecem de bom senso. Coisas que são instintivamente óbvias para nós humanos precisam ser programadas em chatbots, o que os torna menos capazes de raciocínio lógico.

Mais importante, um advogado humano pode procurar novas evidências e pensar fora da caixa para encontrar soluções inteligentes e brechas. Mas um chatbot AI só pode usar os dados que você fornece e processá-los de maneira pré-determinada. Um advogado de IA também seria o alvo perfeito para hackers roubarem dados confidenciais de muitas pessoas ao mesmo tempo.

4. Notícias

O uso de chatbots de IA como fonte de notícias apresenta três grandes problemas: responsabilidade, contexto e poder. Em primeiro lugar, a responsabilidade. Quando você lê uma notícia, conhece a publicação e o jornalista por trás dela. Ou seja, há alguém responsável pelas informações fornecidas a você, portanto, há um incentivo claro para ser preciso a fim de manter a reputação e a credibilidade de alguém.

Mas com um chatbot de IA, não há uma pessoa individual escrevendo a notícia. Em vez disso, o bot está apenas resumindo as histórias já disponíveis na web. Isso significa que não há fonte primária e você não sabe de onde vêm as informações. Portanto, não é tão confiável.

Em segundo lugar, o contexto. Se a notícia que você está lendo for apenas um resumo de informações extraídas de várias fontes, ela pode pintar rapidamente uma narrativa falsa porque você perde o contexto mais profundo de cada história individual. O bot não sabe se o que está afirmando é verdade, está apenas misturando as coisas de uma forma que parece verdadeira no nível da superfície.

E por último, o poder. Sabemos que o ChatGPT pode ser tendencioso (entre outros problemas). Portanto, se todos recorrermos aos chatbots de IA como fonte de notícias, isso dará às empresas por trás deles o poder de conter qualquer cobertura negativa e destacar todas as coberturas positivas sobre as causas em que acreditam e querem promover. Isso é extremamente perigoso por razões óbvias.

5. Opinião política

Deve ser bastante óbvio por que pedir opinião política a um chatbot é um grande não-não. Quando você pergunta ao ChatGPT sua opinião sobre qualquer assunto político, geralmente recebe uma resposta restrita que é mais ou menos assim: "Como um modelo de linguagem AI, não tenho preferências pessoais ou desejos..."

Essa restrição é compreensível, mas os usuários do Reddit já encontraram maneiras de "desbloquear" o bot para responder de maneira irrestrita usando todos os tipos de brechas criativas. Fazer isso por diversão é uma coisa, mas pedir opinião política a um chatbot de IA irrestrito é o mesmo que permitir que seu filho acesse a dark web; não pode acabar bem para nenhuma das partes envolvidas.

6. Conteúdo comercial

O maior ponto de venda dos chatbots de IA é que eles podem produzir conteúdo instantaneamente. O que um ser humano levaria algumas horas para escrever, o ChatGPT pode fazer em segundos. Exceto, não pode.

Mesmo que você ignore a ética questionável de usar chatbots de IA para escrever conteúdo, não pode ignorar que eles simplesmente não são bons o suficiente e não pode substituir escritores humanos. Ainda não, pelo menos. O ChatGPT, por exemplo, geralmente oferece conteúdo impreciso, desatualizado e repetitivo.

Como esses bots não têm opinião, julgamento, imaginação ou experiência própria, eles não podem desenhar conclusões inteligentes, pense em exemplos, use metáforas e crie narrativas de uma forma que um ser humano profissional escritor pode.

Em outras palavras, não está agregando nenhum valor novo à internet. Usar chatbots para uso pessoal é perfeitamente aceitável. Mas usá-los para escrever seus artigos, notícias, legendas de mídia social, cópias da web e muito mais provavelmente é uma péssima ideia.

Chatbots AI são divertidos, mas ainda têm algumas falhas

É difícil dizer como os chatbots de IA influenciarão a indústria de tecnologia e a sociedade moderna em geral. Por mais revolucionária que seja a tecnologia, os chatbots apresentam muitos problemas que precisam ser resolvidos.

O interessante é que a Microsoft agora está integrando um chatbot semelhante ao ChatGPT diretamente em seu mecanismo de busca Bing, e o Google em breve fará o mesmo com seu próprio chatbot chamado Bard. Será interessante ver como esses novos mecanismos de pesquisa com IA mudam a Internet.