O ChatGPT é útil para muitas tarefas, mas existem algumas deficiências críticas que devem fazer você pensar duas vezes antes de confiar nele para aconselhamento médico.
O ChatGPT, um chatbot de inteligência artificial (IA) desenvolvido pela OpenAI, tornou-se uma ferramenta completa para responder a muitas perguntas simples e difíceis, incluindo solicitações de orientação médica. Ele pode responder a perguntas médicas e passar no Exame de Licenciamento Médico dos Estados Unidos (USMLE), mas não pode substituir uma consulta com um médico no hospital.
À medida que o ChatGPT avança, ele tem o potencial de transformar completamente o setor de saúde. Quando integrado aos sistemas de saúde, pode melhorar o acesso dos pacientes aos cuidados e aumentar a eficiência do trabalho dos médicos. No entanto, por ser baseado em IA, existem várias preocupações sobre seus perigos potenciais.
1. ChatGPT tem conhecimento limitado
ChatGPT não sabe tudo. De acordo com a OpenAI, o ChatGPT tem conhecimento limitado, principalmente quando se trata do que aconteceu depois de setembro de 2021.
O ChatGPT não tem acesso direto aos motores de busca ou à internet. Ele foi treinado usando uma grande quantidade de dados de texto de várias fontes, incluindo livros, sites e outros textos. Ele não "conhece" os dados que está entregando. Em vez disso, o ChatGPT usa o texto lido para criar previsões sobre as palavras a serem usadas e em que ordem.
Portanto, não pode obter notícias atuais sobre os desenvolvimentos nas áreas médicas. Sim, o ChatGPT desconhece o transplante de coração de porco para humano ou qualquer outro avanço muito recente na ciência médica.
2. ChatGPT pode produzir informações incorretas
O ChatGPT pode responder às perguntas que você faz, mas as respostas podem ser imprecisas ou tendenciosas. De acordo com um PLoS Saúde Digital estudo, ChatGPT realizado com pelo menos 50% de precisão em todos os exames USMLE. E embora tenha excedido o limite de aprovação de 60% em alguns aspectos, ainda existe a possibilidade de erro.
Além disso, nem todas as informações usadas para treinar o ChatGPT são autênticas. As respostas baseadas em informações não verificadas ou potencialmente tendenciosas podem estar incorretas ou desatualizadas. No mundo da medicina, informações imprecisas podem até custar uma vida.
Como o ChatGPT não pode pesquisar ou verificar material de forma independente, ele não pode diferenciar entre fato e ficção. Periódicos médicos respeitados, incluindo o Journal of the American Medical Association (JAMA), têm estabeleceu regulamentos estritos de que apenas humanos podem escrever estudos científicos publicados no Diário. Como resultado, você deve verificar constantemente as respostas do ChatGPT.
3. O ChatGPT não examina você fisicamente
Os diagnósticos médicos não dependem apenas dos sintomas. Os médicos podem obter informações sobre o padrão e a gravidade de uma doença por meio do exame físico do paciente. Para diagnosticar pacientes, os médicos hoje usam tecnologias médicas e os cinco sentidos.
O ChatGPT não pode realizar um check-up virtual completo ou mesmo um exame físico; ele só pode responder aos sintomas que você fornece como mensagens. Para a segurança e cuidado do paciente, erros no exame físico – ou ignorar completamente o exame físico – podem ser prejudiciais. Como o ChatGPT não o examinou fisicamente, ele oferecerá um diagnóstico incorreto.
4. ChatGPT pode fornecer informações falsas
Um estudo recente da Escola de Medicina da Universidade de Maryland sobre o conselho do ChatGPT para rastreamento de câncer de mama encontrou os seguintes resultados:
“Vimos em nossa experiência que o ChatGPT às vezes inventa artigos falsos de jornais ou consórcios de saúde para apoiar suas reivindicações”. —Paul Yi M.D., professor assistente de radiologia diagnóstica e medicina nuclear na UMSOM
Como parte de nossos testes do ChatGPT, solicitamos uma lista de livros de não ficção que abordam o assunto da mente subconsciente. Como resultado, o ChatGPT produziu um livro falso intitulado "O Poder da Mente Inconsciente" do Dr. Gustav Kuhn.
Quando perguntamos sobre o livro, ele respondeu que era um livro "hipotético" que ele criou. O ChatGPT não dirá se um artigo de jornal ou livro é falso se você não perguntar mais.
5. ChatGPT é apenas um modelo de linguagem AI
Os modelos de linguagem funcionam memorizando e generalizando o texto, em vez de examinar ou estudar a condição de um paciente. Apesar de gerar respostas que correspondem aos padrões humanos em termos de linguagem e gramática, ChatGPT ainda contém uma série de problemas, muito parecido com outros bots de IA.
ChatGPT não é um substituto para o seu médico
Médicos humanos sempre serão necessários para tomar a decisão final sobre as decisões de saúde. O ChatGPT geralmente aconselha falar com um profissional de saúde licenciado quando você pede orientação médica.
Ferramentas baseadas em inteligência artificial, como o ChatGPT, podem ser usadas para agendar consultas médicas, ajudar os pacientes a receber tratamentos e manter suas informações de saúde. Mas não pode substituir a experiência e a empatia de um médico.
Você não deve confiar em uma ferramenta baseada em IA para diagnosticar ou tratar sua saúde, seja ela física ou mental.