O Tay AI da Microsoft passou de uma IA promissora a uma catástrofe total em menos de um dia. Aqui está o que a empresa aprendeu.
Os chatbots de IA como o ChatGPT estão se tornando cada vez mais parte integrante da tecnologia moderna, mas, desconhecido para muitos, a IA generativa nem sempre foi tão boa quanto é hoje. Na verdade, em 2016, o chatbot Tay da Microsoft nos mostrou a rapidez com que a IA pode sair pela culatra.
Vamos explorar o que foi o chatbot Tay da Microsoft, por que ele falhou, suas controvérsias e as lições que a empresa aprendeu após seu fracasso desastroso.
Qual foi o Tay da Microsoft?
Tay foi um chatbot de IA desenvolvido pela Microsoft e disponibilizado via Twitter em 23 de março de 2016. O chatbot foi desenvolvido para jovens de 18 a 24 anos nos EUA para "fins de entretenimento" e para "experimentar e conduzir pesquisas sobre compreensão conversacional".
Tay não foi feito para ser um chatbot sofisticado como o ChatGPT, mas um bot de IA amigável no Twitter com quem você poderia conversar - mais ou menos Minha IA no Snapchat, mas para socializar.
Por que a Microsoft desligou o Tay?
A Microsoft derrubou Tay 24 horas depois de ir ao ar - por um bom motivo. Quase imediatamente após o lançamento do Tay, os usuários do Twitter começaram a abusar do serviço alimentando o chatbot desinformação, ensinando-lhe termos pejorativos e incitando-o a ser cada vez mais ofensivo apenas para ver até que ponto iria.
E longe foi de fato. Poucas horas após o lançamento, Tay estava twittando algumas das calúnias raciais mais ofensivas, espalhando discurso de ódio, promovendo o nazismo e até inspirando uma "guerra racial". Caramba! Claramente, a Microsoft estava passando por um momento terrível e não poderia deixar o serviço continuar.
Em um postar no blog oficial da Microsoft, o vice-presidente corporativo da Microsoft, Peter Lee, repetiu o mesmo:
Lamentamos profundamente os tweets ofensivos e prejudiciais não intencionais de Tay, que não representam quem somos ou o que defendemos, nem como projetamos Tay. Tay agora está offline e procuraremos trazer Tay de volta apenas quando tivermos certeza de que podemos antecipar melhor as intenções maliciosas que entram em conflito com nossos princípios e valores.
O desastre de Tay é apenas um dos muitos perigos da inteligência artificial e um forte lembrete de por que seu desenvolvimento deve ser feito com o máximo cuidado e supervisão.
6 lições que a Microsoft aprendeu depois de Tay
Tay foi um desastre completo, mas também ensinou à Microsoft algumas lições cruciais no que diz respeito ao desenvolvimento de ferramentas de IA. E pelo que vale a pena, provavelmente é melhor que a Microsoft tenha aprendido suas lições mais cedo ou mais tarde, o que lhe permitiu obter uma vantagem sobre o Google e desenvolver o novo Navegador Bing com IA.
Aqui estão algumas dessas lições:
1. A internet está cheia de trolls
A internet está cheia de trolls, e isso não é exatamente novidade, não é mesmo? Aparentemente, foi assim para a Microsoft em 2016. Não estamos dizendo que a construção de um chatbot para "fins de entretenimento" voltado para jovens de 18 a 24 anos tenha algo a ver com a taxa de abuso do serviço. Ainda assim, definitivamente não foi a ideia mais inteligente.
As pessoas naturalmente querem testar os limites das novas tecnologias e, em última análise, é o trabalho do desenvolvedor dar conta desses ataques mal-intencionados. De certa forma, os trolls internos atuam como um mecanismo de feedback para garantia de qualidade, mas isso não quer dizer que um chatbot deva ser solto sem as devidas salvaguardas implementadas antes do lançamento.
2. AI não pode diferenciar intuitivamente entre bom e ruim
O conceito de bem e mal é algo que a IA não entende intuitivamente. Tem que ser programado para simular o conhecimento do que é certo e errado, o que é moral e imoral, e o que é normal e peculiar.
Essas qualidades são mais ou menos naturais para os humanos como criaturas sociais, mas a IA não pode formar julgamentos independentes, sentir empatia ou sentir dor. É por isso que, quando os usuários do Twitter estavam alimentando Tay com todos os tipos de propaganda, o bot simplesmente o seguia — sem saber da ética das informações que coletava.
3. Não treine modelos de IA usando as conversas das pessoas
Tay foi criado por "mineração de dados públicos relevantes e uso de IA e editorial desenvolvido por uma equipe que inclui comediantes de improvisação." Treinar um modelo de IA usando as conversas das pessoas na internet é uma tarefa horrível ideia.
E antes de culpar o Twitter, saiba que o resultado provavelmente teria sido o mesmo independente da plataforma. Por que? Porque as pessoas simplesmente não são o melhor de si na internet. Eles se emocionam, usam gírias e usam seu anonimato para serem nefastos.
4. IA carece de bom senso e não recebe sarcasmo
A IA hoje parece mais intuitiva (ou, para ser mais preciso, é melhor para simular a intuição), mas às vezes ainda luta para reconhecer o sarcasmo e as figuras de linguagem. Isso era verdade ainda mais em 2016. O que é óbvio para os humanos não é óbvio para a IA; em outras palavras, falta bom senso.
IAs como Tay não entendem por que os humanos são como somos, agem como agimos e as excentricidades de cada indivíduo. Pode se comportar e soar humano em um grau surpreendente, mas uma boa programação só pode ir até certo ponto.
5. A IA deve ser programada para rejeitar solicitações inválidas
A IA é muito impressionável e deve ser programada para rejeitar solicitações que promovam danos. Mesmo hoje, depois de todos os nossos avanços no processamento de linguagem natural, as pessoas ainda encontram brechas linguísticas para fazer chatbots de IA como ChatGPT "alucinarem" e entregar resultados que deveriam ser restritos.
O ponto aqui é que a inteligência artificial é perfeitamente obediente, o que talvez seja sua maior força e fraqueza. Tudo o que você não deseja que um chatbot faça deve ser programado manualmente nele.
6. Chatbots de IA nunca devem ser deixados sem supervisão
Até que a IA possa se auto-regular, ela não pode ser deixada sem supervisão. Você pode pensar na IA de hoje como uma criança prodígio; é brilhante em alguns aspectos, mas ainda assim é uma criança. Se não for atendido, as pessoas explorarão suas fraquezas - e Tay foi um excelente exemplo disso.
AI é uma ferramenta, assim como a internet, mas a taxa e a escala em que as coisas podem sair pela culatra com AI é muito maior do que experimentamos durante os primeiros dias da internet.
A IA precisa de supervisão e regulamentação constantes
Tay não é o único chatbot que foi desonesto - houve muitos outros casos como esse. Mas o que o destacou foi a velocidade absoluta com que o fez - e o fato de ter sido fabricado por um gigante da tecnologia como a Microsoft.
Exemplos como este mostram como devemos ser cuidadosos ao desenvolver ferramentas de IA, especialmente quando são destinadas a pessoas comuns.