As discussões sobre a senciência da IA ​​não são novidade, mas as notícias sobre a IA LaMDA do Google alimentaram as chamas. Depois que um engenheiro afirmou que o bot estava consciente, mesmo tendo uma alma, algumas perguntas familiares surgiram novamente.

A IA como o LaMDA pode realmente ser senciente ou autoconsciente e, em caso afirmativo, como você pode dizer? Isso importa?

O que é LaMDA?

LaMDA, abreviação de Language Model for Dialogue Applications, apareceu pela primeira vez em 2021 na conferência de desenvolvedores do Google. O sistema avançado de IA deve ajudar a construir outros chatbots menores. Quando o Google o apresentou pela primeira vez, anunciou planos de integrá-lo a tudo, ajudando serviços como Google Assistant e Search a se sentirem mais humanos, ou pelo menos naturais.

Quando o engenheiro do Google Blake Lemoine conversou com o LaMDA para ver se ele usava discurso de ódio, ele saiu com uma impressão diferente. Lemoine afirmou que LaMDA era senciente e, se ele não soubesse que era um bot, pensaria que era uma criança de oito anos.

instagram viewer

Após suas conversas com o LaMDA, Lemoine tentou provar que era consciente e defender o que acreditava serem seus direitos legais. Em resposta, o Google colocou Lemoine em licença administrativa remunerada por quebrar acordos de confidencialidade.

O LaMDA é realmente senciente?

Então, o LaMDA é realmente senciente? A maioria dos especialistas que opinaram sobre o assunto são céticos. O LaMDA é uma plataforma de bate-papo de IA altamente avançada que analisa trilhões de palavras da Internet, por isso é capaz de soar como uma pessoa real.

Esta não é a primeira vez que uma das IAs do Google engana as pessoas fazendo-as pensar que é humano. Em 2018, o Google demonstrou sua Duplex AI ligando para um restaurante para reservar uma mesa. Em nenhum momento o funcionário do outro lado pareceu duvidar de que estava falando com uma pessoa.

A senciência é difícil de definir, embora a maioria das pessoas duvido que a IA tenha chegado a esse ponto ainda. No entanto, a questão importante pode não ser se o LaMDA é realmente senciente, mas que diferença faz se puder enganar as pessoas a pensar que é.

Possíveis Implicações Legais do LaMDA

A situação da LaMDA levanta muitas questões legais e éticas. Primeiro, algumas pessoas podem questionar se o Google estava certo em colocar Lemoine de licença por falar sobre isso.

De acordo com a Seção 740 da Lei do Trabalho de Nova York, as proteções para denunciantes defendem os funcionários de tais consequências se eles acreditarem que as práticas de seu empregador violam a lei ou representam um risco significativo para o público segurança. A suposta senciência do LaMDA não atende a esse requisito legal, mas deveria?

Dar direitos de IA é um assunto complicado. Enquanto a IA pode criar coisas e parecer humano, você pode se deparar com algumas situações complicadas se essas máquinas tiverem proteções legais. Os direitos legais operam em torno de recompensas e punições que não afetam a IA, complicando a justiça.

Se um carro autônomo atinge um pedestre, a IA é culpada se a lei o tratar como humano? E se assim for, não dá estritamente justiça à vítima, já que você não pode tecnicamente punir a IA da mesma forma que faria com um humano.

Outra questão que surge com o LaMDA e chatbots de IA semelhantes é sua segurança. Se esses bots parecem convincentemente reais, as pessoas podem confiar mais neles e estar dispostas a dar-lhes informações mais sensíveis. Isso abre a porta para uma série de preocupações com privacidade e segurança se essa tecnologia cair nas mãos erradas.

A IA apresenta questões éticas complicadas

AIs como LaMDA continuam ficando mais sofisticados e realistas. À medida que essa tendência cresce, empresas e legisladores devem reavaliar como tratam a IA e como essas decisões podem afetar a justiça e a segurança.

Tal como está, o LaMDA AI do Google pode não ser senciente, mas é bom o suficiente para enganar as pessoas a pensar que é, o que deve gerar alguns alarmes.