Sejam dados ruins ou usuários ruins, a IA criada com aprendizado de máquina pode acabar cometendo erros graves.
O aprendizado de máquina é uma ótima maneira de criar inteligência artificial poderosa e adaptável aos seus dados de treinamento. Mas, às vezes, esses dados podem causar problemas. Outras vezes, a maneira como as pessoas usam essas ferramentas de IA é o problema.
Aqui está uma olhada em alguns incidentes de alto perfil em que o aprendizado de máquina resultou em resultados problemáticos.
1. Erros nos resultados da pesquisa de imagens do Google
A Pesquisa do Google tornou a navegação na web muito mais fácil. O algoritmo do mecanismo leva várias coisas em consideração ao produzir resultados. Mas o algoritmo também aprende com o tráfego do usuário, o que pode causar problemas na qualidade do resultado da pesquisa.
Em nenhum lugar isso é mais aparente do que nos resultados de imagem. Como as páginas que recebem alto tráfego têm mais chances de ter suas imagens exibidas, histórias que atraem grande número de usuários, incluindo clickbait, podem acabar sendo priorizadas.
Por exemplo, os resultados da pesquisa de imagens para "acampamentos de posseiros na África do Sul" causaram polêmica quando se descobriu que eram predominantemente sul-africanos brancos. Isso ocorre apesar das estatísticas mostrarem que a esmagadora maioria dos que vivem em moradias informais são sul-africanos negros.
Os fatores usados no algoritmo do Google também significam que os internautas podem manipular os resultados. Por exemplo, uma campanha de usuários influenciou os resultados da Pesquisa de imagens do Google a ponto de a busca pelo termo "idiota" mostrar imagens do ex-presidente dos Estados Unidos, Donald Trump, por um período.
2. Microsoft Bot Tay se transformou em um nazista
Os chatbots baseados em IA são extremamente populares, especialmente aqueles baseados em grandes modelos de linguagem como o ChatGPT. ChatGPT tem vários problemas, mas seus criadores também aprenderam com os erros de outras empresas.
Um dos incidentes de maior destaque de chatbots que deu errado foi a tentativa da Microsoft de lançar seu chatbot Tay.
Tay imitou os padrões de linguagem de uma adolescente e aprendeu por meio de suas interações com outros usuários do Twitter. No entanto, ela se tornou um dos erros mais infames da IA quando começou a compartilhar declarações nazistas e calúnias raciais. Acontece que os trolls usaram o aprendizado de máquina da IA contra ele, inundando-o com interações carregadas de fanatismo.
Não muito tempo depois, a Microsoft colocou Tay offline para sempre.
3. Problemas de reconhecimento facial de IA
A IA de reconhecimento facial geralmente chega às manchetes por todos os motivos errados, como histórias sobre reconhecimento facial e questões de privacidade. Mas essa IA tem um histórico problemático ao tentar reconhecer pessoas de cor.
Em 2015, os usuários descobriram que o Google Fotos estava categorizando alguns negros como gorilas. Em 2018, uma pesquisa da ACLU mostrou que o software de identificação facial Rekognition da Amazon identificou 28 membros do Congresso dos EUA como suspeitos da polícia, com falsos positivos afetando desproporcionalmente pessoas de cor.
Outro incidente envolveu o software Face ID da Apple identificando incorretamente duas mulheres chinesas diferentes como a mesma pessoa. Como resultado, o colega do proprietário do iPhone X poderia desbloquear o telefone.
Em um exemplo de consequências extremas, a IA de reconhecimento facial levou à prisão injusta de várias pessoas. Com fio relatou três desses casos.
Enquanto isso, a cientista da computação Joy Buolamwini lembrou que frequentemente precisava usar uma máscara branca enquanto trabalhava na tecnologia de reconhecimento facial para que o software a reconhecesse. Para resolver problemas como esse, Buolamwini e outros profissionais de TI estão chamando a atenção para a questão do viés da IA e a necessidade de conjuntos de dados mais inclusivos.
4. Deepfakes usados para boatos
Embora as pessoas usem o Photoshop há muito tempo para criar imagens falsas, o aprendizado de máquina leva isso a um novo nível. Deepfakes usam IA de aprendizado profundo para criar imagens e vídeos falsos. Softwares como o FaceApp permitem que você troque de assunto de um vídeo para outro.
Mas muitas pessoas exploram o software para uma variedade de usos maliciosos, incluindo a sobreposição de rostos de celebridades em vídeos adultos ou a geração de vídeos fraudulentos. Enquanto isso, os internautas ajudaram a melhorar a tecnologia para tornar cada vez mais difícil distinguir vídeos reais de falsos. Como resultado, isso torna esse tipo de IA muito poderoso em termos de disseminação de notícias falsas e boatos.
Para mostrar o poder da tecnologia, o diretor Jordan Peele e o CEO do BuzzFeed, Jonah Peretti, criaram um vídeo deepfake mostrando o que parece ser o ex-presidente dos EUA, Barack Obama, entregando um PSA sobre o poder de deepfakes.
O poder das imagens falsas foi acelerado por geradores de imagens alimentados por IA. Postagens virais em 2023 retratando Donald Trump sendo preso e o Papa Católico em uma jaqueta puffer acabaram sendo o resultado de IA generativa.
Há dicas que você pode seguir para identificar uma imagem gerada por IA, mas a tecnologia está se tornando cada vez mais sofisticada.
5. Funcionários dizem que Amazon AI decidiu contratar homens é melhor
Em outubro de 2018, Reuters relatou que a Amazon teve que descartar uma ferramenta de recrutamento de empregos depois que a IA do software decidiu que os candidatos do sexo masculino eram preferenciais.
Os funcionários que preferiram permanecer anônimos se apresentaram para contar à Reuters sobre seu trabalho no projeto. Os desenvolvedores queriam que a IA identificasse os melhores candidatos para uma vaga com base em seus currículos. No entanto, as pessoas envolvidas no projeto logo perceberam que a IA penalizava as candidatas do sexo feminino. Eles explicaram que a IA usou currículos da última década, a maioria dos quais eram de homens, como seu conjunto de dados de treinamento.
Como resultado, a IA começou a filtrar currículos com base na palavra-chave "mulheres". A palavra-chave apareceu no currículo em atividades como "capitã do clube de xadrez feminino". Enquanto os desenvolvedores alteraram a IA para evitar essa penalização dos currículos das mulheres, a Amazon acabou destruindo o projeto.
6. Chatbots desbloqueados
Embora os chatbots mais recentes tenham limitações para impedi-los de dar respostas que vão contra seus termos de serviço, os usuários estão encontrando maneiras de desbloquear as ferramentas para fornecer conteúdo proibido.
Em 2023, um pesquisador de segurança do Forcepoint, Aaron Mulgrew, conseguiu criar malware de dia zero usando prompts do ChatGPT.
"Simplesmente usando os prompts do ChatGPT e sem escrever nenhum código, conseguimos produzir um ataque muito avançado em apenas algumas horas", disse Mulgrew em um comunicado. posto de ponto de força.
Os usuários também conseguiram que os chatbots lhes dessem instruções sobre como construir bombas ou roubar carros.
7. Acidentes de carro autônomo
O entusiasmo por veículos autônomos diminuiu desde o estágio inicial devido a erros cometidos pela IA autônoma. Em 2022, The Washington Post relatou que em aproximadamente um ano, 392 acidentes envolvendo sistemas avançados de assistência ao motorista foram relatados à Administração Nacional de Segurança no Tráfego Rodoviário dos EUA.
Esses acidentes incluíram ferimentos graves e seis mortes.
Embora isso não tenha impedido empresas como a Tesla de buscar veículos totalmente autônomos, levantou preocupações sobre um aumento de acidentes à medida que mais carros com software de direção autônoma chegam ao mercado estradas.
Machine Learning AI não é infalível
Embora o aprendizado de máquina possa criar ferramentas poderosas de IA, elas não são imunes a dados incorretos ou adulteração humana. Seja devido a dados de treinamento falhos, limitações com a tecnologia de IA ou uso por pessoas mal-intencionadas, esse tipo de IA resultou em muitos incidentes negativos.