A inteligência artificial (IA) ainda não atingiu o nível humano. Mas com a tecnologia diminuindo a lacuna cada vez mais a cada ano, muitos problemas éticos têm surgido.
Uma questão importante é: até que ponto a inteligência artificial será semelhante aos seres humanos? Eles pensarão por si próprios ou terão desejos e emoções? Eles deveriam ter direitos legais como os humanos? Eles devem ser forçados a trabalhar ou ser responsabilizados se algo der errado?
Vamos nos aprofundar nessas questões e muito mais neste artigo.
Ética da IA: Por que eles são importantes para se pensar
IA e ética da máquina são dois campos relacionados que estão ganhando força cada vez maior. Eles se relacionam a vários aspectos importantes da tecnologia, incluindo como projetamos, usamos e tratamos as máquinas. A maioria dessas questões está relacionada a questões de segurança em relação aos seres humanos.
No entanto, a ética da IA está começando a superar essas questões fundamentais e entrar em um território mais controverso. Imagine que nas próximas décadas, uma IA superinteligente seja desenvolvida, a qual é potencialmente consciente e expressa desejos, sentimentos ou pode experimentar sofrimento. Uma vez que não temos certeza do que é a consciência humana ou como surge, não é uma proposição tão rebuscada quanto parece originalmente.
Como faríamos para definir e tratar tal IA? E quais são algumas das questões éticas que estamos enfrentando agora com nosso nível atual de IA?
Vamos dar uma olhada em alguns dos dilemas éticos que estamos enfrentando.
A IA deve receber cidadania?
Em 2017, o governo da Arábia Saudita concedeu cidadania plena a Sophia: um dos robôs com IA mais realistas do mundo. Sophia pode participar de uma conversa e é capaz de imitar 62 expressões faciais humanas. Sophia é o primeiro não humano a ter um passaporte e o primeiro a ter um cartão de crédito.
A decisão de tornar Sophia uma cidadã gerou polêmica. Alguns consideram isso um passo à frente. Eles acham que é importante que as pessoas e órgãos reguladores comecem a prestar mais atenção às questões nesta área. Outros consideram isso uma afronta à dignidade humana, afirmando que a IA não está perto de ser humana ainda - e que a sociedade como um todo não está pronta para cidadãos robôs.
O debate se torna acalorado por causa dos direitos e deveres que são concedidos aos cidadãos. Isso inclui poder votar, pagar impostos, casar e ter filhos. Se Sophia tem permissão para votar, quem está realmente votando? Com o estado atual da IA, prefere ser seu criador que está votando? Outra crítica contundente é que Sophia recebeu mais direitos do que as mulheres e trabalhadores migrantes da Arábia Saudita.
AI e IP: eles devem possuir os direitos sobre o que criam?
Discussões em torno da propriedade intelectual (IP) e preocupações com a privacidade atingiram o ponto mais alto e agora há outra preocupação. A IA está sendo usada cada vez mais para desenvolver conteúdo, produzir ideias e realizar outras ações sujeitas às leis de PI. Por exemplo, o The Washington Post lançou Heliograf em 2016; um repórter de IA que desenvolveu quase mil artigos em seu primeiro ano. Diversas indústrias também usam IA para vasculhar grandes quantidades de dados e desenvolver novos produtos, como a indústria farmacêutica.
Atualmente, a IA é considerada uma ferramenta; todos os direitos de propriedade intelectual e legais são concedidos ao seu proprietário. Mas a UE considerou anteriormente a criação de uma terceira entidade, uma “personalidade eletrônica”, que se tornaria uma entidade legal aos olhos das leis de PI.
Alguns argumentam que, sem o IP sendo fornecido ao proprietário da máquina, haverá uma falta de incentivo para construir IA "criativa". Se o IP fosse para a IA, por que alguém os desenvolveria? E, por isso, acreditam que faltará inovação.
IA e o futuro do trabalho
O papel da IA no trabalho é uma espécie de enigma. Nos últimos anos, vimos o uso controverso de IA na contratação e dispensa de algoritmos onde a IA era enviesado involuntariamente para certos dados demográficos. A IA também está gradualmente substituindo níveis cada vez mais altos de trabalho humano - primeiro o trabalho manual e agora o trabalho mental de ordem superior.
O que deve ser feito sobre isso? E o que acontece se alguma forma de IA consciente for desenvolvida? Deve ser forçado a funcionar? Compensado por seu trabalho? Direitos no local de trabalho concedidos? E assim por diante.
Em um episódio de Black Mirror (um programa famoso por bagunçando nossas cabeças), uma garota chamada Greta cria um clone digital de sua consciência. O clone é informado de que seu objetivo é cumprir deveres para a vida de Greta. Mas, com a consciência de Greta, o clone se considera Greta. Então, quando o clone se recusa a ser um escravo, seus criadores o torturam até a submissão. Finalmente, o clone vai trabalhar para Greta.
Devemos conceder preventivamente certos direitos à IA no caso de eles se acreditarem humanos ou sofrerem?
Para dar um passo adiante, vamos considerar se a IA deve ser livremente desligada ou descomissionada. Atualmente, quando algo dá errado, podemos simplesmente puxar o plugue e desligar a IA. Mas, se a IA tivesse direitos legais e isso não fosse mais possível, o que seria possível?
O famoso exemplo de IA superinteligente que deu errado é o maximizador de clipes de papel. Esta é uma IA que foi projetada para criar o máximo de clipes de papel possível. Dado que a IA é poderosa o suficiente, é concebível que possa decidir converter seres humanos, e então tudo, em clipes de papel.
A IA deve ser responsabilizada?
A IA já é responsável por muitas decisões que afetam vidas humanas. Na verdade, a IA já é usada em muitas áreas que afetam diretamente os direitos humanos, o que é preocupante considerando o quão tendenciosos muitos algoritmos de IA parecem ser.
Por exemplo, a IA é usada por grandes empresas para decidir quem deve ser contratado para um cargo. Também é usado em alguns países para determinar quem deve receber bem-estar. O mais preocupante é que é usado pela polícia e pelos sistemas judiciais para determinar a condenação dos réus. E isso não é tudo.
O que acontece quando a IA comete erros? Quem é responsável - aqueles que o usam? Os criadores Alternativamente, a própria IA deveria ser punida (e se sim, como isso funcionaria)?
AI e Humanidade
AI nunca será humana. Mas pode ser consciente, sentir sofrimento ou ter desejos e vontades. Se uma IA como essa fosse desenvolvida, seria antiético forçá-la a funcionar, descomissioná-la livremente ou fazer coisas que a causam sofrimento?
Embora a IA ainda esteja em sua infância, ela já está sendo usada para coisas que afetam diretamente as vidas humanas, às vezes drasticamente. É necessário tomar decisões sobre como regular o software que é melhor para as vidas humanas, e as vidas de IA, caso isso aconteça.
Vamos esclarecer algumas falsidades comuns em torno da IA.
Leia a seguir
- Tecnologia Explicada
- Inteligência artificial
- Futurologia
- Tecnologia

Jake Harfield é um escritor freelance que mora em Perth, Austrália. Quando não está escrevendo, geralmente está no mato fotografando a vida selvagem local. Você pode visitá-lo em www.jakeharfield.com
Assine a nossa newsletter
Junte-se ao nosso boletim informativo para dicas de tecnologia, análises, e-books grátis e ofertas exclusivas!
Clique aqui para se inscrever