A IA generativa é ótima, mas sempre apresenta suas informações com autoridade absoluta. O que é ótimo, a menos que esteja alucinando a verdade.

A alucinação de Inteligência Artificial (IA) soa desconcertante. Você provavelmente está pensando: "A alucinação não é um fenômeno humano?" Bem, sim, costumava ser um ser exclusivamente humano fenômeno até que a IA começou a exibir características humanas como reconhecimento facial, autoaprendizagem e fala reconhecimento.

Infelizmente, a IA assumiu alguns atributos negativos, incluindo alucinações. Então, a alucinação da IA ​​é semelhante ao tipo de alucinação que os humanos experimentam?

O que é alucinação de IA?

A alucinação de inteligência artificial ocorre quando um modelo de IA gera resultados diferentes do esperado. Observe que alguns modelos de IA são treinados para gerar intencionalmente saídas não relacionadas a qualquer entrada do mundo real (dados).

Por exemplo, principais geradores de conversão de texto em arte de IA, como o DALL-E 2, pode gerar criativamente novas imagens que podemos rotular como "alucinações", pois não são baseadas em dados do mundo real.

Alucinação de IA em modelos de processamento de linguagem grande

Vamos considerar como seria a alucinação de IA em um grande modelo de processamento de linguagem, como o ChatGPT. Uma alucinação do ChatGPT resultaria no bot dando a você um fato incorreto com alguma afirmação, de modo que você naturalmente consideraria tais fatos como verdade.

Em termos simples, são declarações inventadas pelo chatbot artificialmente inteligente. Aqui está um exemplo:

Em uma consulta mais aprofundada, o ChatGPT apareceu com isso:

Alucinação de IA na Visão Computacional

Vamos considerar outro campo da IA ​​que pode experimentar a alucinação da IA: Visão Computacional. O quiz abaixo mostra uma montagem 4x4 com duas entidades muito parecidas. As imagens são uma mistura de batatas fritas para churrasco e folhas.

O desafio é selecionar as batatas fritas sem acertar nenhuma folha na montagem. Esta imagem pode parecer complicada para um computador e pode ser incapaz de diferenciar entre as batatas fritas e as folhas.

Aqui está outra montagem com uma mistura de imagens de poodle e porco floss bun. Um computador provavelmente não seria capaz de diferenciá-los, misturando as imagens.

Por que ocorre a alucinação de IA?

A alucinação de IA pode ocorrer devido a exemplos adversários - dados de entrada que induzem um aplicativo de IA a classificá-los incorretamente. Por exemplo, ao treinar aplicativos de IA, os desenvolvedores usam dados (imagem, texto ou outros); se os dados forem alterados ou distorcidos, o aplicativo interpreta a entrada de maneira diferente, fornecendo uma saída errada.

Em contraste, um ser humano ainda pode reconhecer e identificar os dados com precisão, apesar das distorções. Podemos rotular isso como senso comum – um atributo humano que a IA ainda não possui. Veja como a IA é enganada com exemplos adversários neste vídeo:

Em relação a grandes modelos baseados em linguagem, como ChatGPT e suas alternativas, as alucinações podem surgir da decodificação imprecisa do transformador (modelo de aprendizado de máquina).

Na IA, um transformador é um modelo de aprendizado profundo que usa autoatenção (relações semânticas entre palavras em uma frase) para produzir texto semelhante ao que um humano escreveria usando um codificador-decodificador (entrada-saída) seqüência.

Portanto, os transformadores, um modelo de aprendizado de máquina semissupervisionado, podem gerar um novo corpo de texto (saída) a partir do grande corpo de dados de texto usado em seu treinamento (entrada). Ele faz isso prevendo a próxima palavra em uma série com base nas palavras anteriores.

Com relação à alucinação, se um modelo de linguagem foi treinado em dados e recursos insuficientes e imprecisos, espera-se que a saída seja inventada e imprecisa. O modelo de linguagem pode gerar uma história ou narrativa sem inconsistências lógicas ou conexões pouco claras.

No exemplo abaixo, o ChatGPT foi solicitado a fornecer uma palavra semelhante a "revolta" e começa com um "b". Aqui está sua resposta:

Ao investigar mais, continuou dando respostas erradas, com alto nível de confiança.

Então, por que o ChatGPT não consegue dar uma resposta precisa a essas solicitações?

Pode ser que o modelo de linguagem não esteja equipado para lidar com prompts bastante complexos como esses ou que não consegue interpretar o prompt com precisão, ignorando o prompt ao fornecer uma palavra semelhante com um específico alfabeto.

Como você identifica a alucinação da IA?

É evidente agora que os aplicativos de IA têm o potencial de alucinar – gerar respostas de outra forma a partir da saída esperada (fato ou verdade) sem qualquer intenção maliciosa. E detectar e reconhecer alucinações de IA depende dos usuários de tais aplicativos.

Aqui estão algumas maneiras de detectar alucinações de IA ao usar aplicativos comuns de IA:

1. Modelos de processamento de linguagem grande

Embora raro, se você notar um erro gramatical no conteúdo produzido por um grande modelo de processamento, como o ChatGPT, isso deve levantar uma sobrancelha e fazer você suspeitar de uma alucinação. Da mesma forma, quando o conteúdo gerado por texto não soa lógico, não se correlaciona com o contexto fornecido ou não corresponde aos dados de entrada, você deve suspeitar de uma alucinação.

Usar o julgamento humano ou o bom senso pode ajudar a detectar alucinações, pois os humanos podem identificar facilmente quando um texto não faz sentido ou segue a realidade.

2. Visão Computacional

Como um ramo da inteligência artificial, aprendizado de máquina e ciência da computação, a visão computacional permite que os computadores reconheçam e processem imagens como os olhos humanos. Usando redes neurais convolucionais, eles contam com a incrível quantidade de dados visuais usados ​​em seu treinamento.

Um desvio dos padrões dos dados visuais usados ​​no treinamento resultará em alucinações. Por exemplo, se um computador não foi treinado com imagens de uma bola de tênis, ele pode identificá-la como uma laranja verde. Ou se um computador reconhece um cavalo ao lado de uma estátua humana como um cavalo ao lado de um ser humano real, ocorreu uma alucinação de IA.

Portanto, para identificar uma alucinação de visão computacional, compare a saída gerada com o que se espera que um humano [normal] veja.

3. Carros autônomos

Crédito da imagem: Ford

Graças à IA, os carros autônomos estão gradualmente se infiltrando no mercado automotivo. Pioneiros como o piloto automático da Tesla e o BlueCruise da Ford têm defendido a cena dos carros autônomos. você pode conferir como e o que o piloto automático da Tesla vê para entender um pouco como a IA alimenta os carros autônomos.

Se você possui um desses carros, gostaria de saber se seu carro AI está alucinando. Um sinal será se o seu veículo parecer estar se desviando de seus padrões normais de comportamento durante a condução. Por exemplo, se o veículo frear ou desviar repentinamente sem nenhum motivo óbvio, seu veículo de IA pode estar tendo alucinações.

Sistemas de IA também podem ter alucinações

Os seres humanos e os modelos de IA experimentam alucinações de maneira diferente. Quando se trata de IA, as alucinações referem-se a saídas errôneas que estão a quilômetros de distância da realidade ou não fazem sentido no contexto do prompt fornecido. Por exemplo, um chatbot AI pode dar uma resposta gramatical ou logicamente incorreta ou identificar erroneamente um objeto devido a ruído ou outros fatores estruturais.

As alucinações de IA não resultam de uma mente consciente ou subconsciente, como você observaria em humanos. Em vez disso, resulta da inadequação ou insuficiência dos dados usados ​​no treinamento e programação do sistema de IA.