A Inteligência Artificial (IA) é tão controversa quanto impressionante. Pode facilitar muitas partes do trabalho e da vida cotidiana, mas também levanta algumas questões éticas. O uso da IA ​​pelo governo dos EUA, em particular, deixa algumas pessoas desconfortáveis.

Existem muitos projetos governamentais de IA em uso ou em desenvolvimento hoje, e alguns fizeram muito bem. Ao mesmo tempo, eles levantam muitas preocupações com a privacidade da inteligência artificial. Aqui está um olhar mais atento sobre esses projetos e o que eles significam para a privacidade pública.

Exemplos de projetos governamentais de IA e automação

Os exemplos mais básicos de inteligência artificial usados ​​pelo governo dos EUA envolvem automatizar o trabalho rotineiro de escritório. Em 2019, Seattle usou Automação Robótica de Processos (RPA) para cuidar dos aplicativos de entrada e processamento de dados. Desde então, a cidade recebeu mais de 6.000 pedidos em atraso e economizou centenas de horas de trabalho.

Outros projetos de IA do governo são mais atraentes. O Corpo de Bombeiros de Nova York está testando cães robôs de

Dinâmica de Boston para medir danos estruturais e gases tóxicos antes da entrada dos bombeiros. Antes do projeto do robô de combate a incêndios, o Departamento de Polícia de Nova York planejava implementar os mesmos robôs.

Departamentos de polícia e outras agências governamentais em todo o país estão considerando o uso de tecnologias semelhantes. No entanto, à medida que esses projetos de IA do governo decolam, suas possíveis falhas de privacidade se tornam mais claras.

A inteligência artificial é uma ameaça à privacidade e à segurança?

Se você verá robôs policiais no futuro ainda é incerto, mas as coisas parecem estar indo nessa direção. Esses projetos têm muitos benefícios, mas as preocupações com a privacidade da inteligência artificial se tornam mais sérias ao lidar com o governo. Aqui estão alguns dos maiores problemas com essas tecnologias.

A inteligência artificial depende da coleta e análise de dados. Como resultado, mais projetos governamentais de IA significam que essas agências coletarão e armazenarão informações adicionais sobre seus cidadãos. Algumas pessoas acham que toda essa coleta de informações viola sua privacidade e viola seus direitos.

Tecnologias como o projeto do cão de combate a incêndios são particularmente preocupantes porque podem tornar a vigilância governamental enganosa. As agências dizem que o robô está lá para verificar as preocupações de segurança, mas não há como as pessoas saberem quais dados estão coletando. Poderia ter câmeras e sensores que escaneiam seus rostos ou rastreiam seus celulares sem que eles saibam.

Algumas pessoas temem que o "fator legal" dos robôs esconda seu potencial de vigilância. Os robôs policiais no futuro poderão espionar os cidadãos sem levantar muita suspeita, já que as pessoas apenas veem novas tecnologias em vez de uma violação de sua privacidade.

Responsabilidades pouco claras

Esses projetos de IA e automação também levantam a questão da responsabilidade. Se um robô comete um erro que resulta em dano, quem é responsável por isso? Quando um funcionário do governo ultrapassa seus limites e infringe os direitos de alguém, os tribunais podem responsabilizá-lo, mas e um robô?

Você pode ver esse problema em carros autônomos. As pessoas cobraram o fabricante sob uma reivindicação de responsabilidade do produto em alguns casos de acidente de piloto automático, enquanto outros culpam o motorista. Em um caso, o Conselho Nacional de Segurança no Transporte colocou a responsabilidade tanto no fabricante quanto no motorista, mas isso deve ser decidido caso a caso. Os robôs da polícia turvam as águas da mesma maneira. Se eles violarem sua privacidade, não está claro se culpar o fabricante, o departamento de polícia ou os supervisores humanos.

Essa confusão pode retardar e complicar os procedimentos legais. Pode demorar um pouco para as vítimas de violações de privacidade ou violações de seus direitos obterem a justiça que merecem. Novas leis e precedentes legais podem esclarecer as coisas e resolver esse problema, mas, no momento, é incerto.

Riscos de violação de dados

A inteligência artificial usada pelo governo dos EUA também pode expandir as preocupações de privacidade da IA ​​que você vê no setor privado. A coleta de alguns dados pode ser perfeitamente legal, mas quanto mais organizações coletam, maior o risco. A empresa ou o governo não podem usar as informações para nada ilegal, mas podem tornar as pessoas vulneráveis ​​a crimes cibernéticos.

Havia mais de 28.000 ataques cibernéticos contra o governo dos EUA apenas em 2019. Se as agências detiverem mais informações privadas dos cidadãos, esses ataques podem afetar mais do que apenas o governo. Uma violação de dados bem-sucedida pode colocar em risco muitas pessoas sem que elas saibam. As violações geralmente passam despercebidas, então você precisa verifique se seus dados já não estão à venda.

Por exemplo, se um robô policial no futuro usar o reconhecimento facial para procurar criminosos procurados, ele poderá armazenar dados biométricos de muitos cidadãos. Os hackers que entram no sistema podem roubar essas informações e usá-las para invadir as contas bancárias das pessoas. Os projetos de IA do governo devem ter fortes medidas de segurança cibernética se não quiserem colocar em risco os dados das pessoas.

A IA do governo traz benefícios, mas levanta preocupações

Ainda não está claro como o governo americano usará a inteligência artificial no futuro. Novas proteções e leis podem resolver esses problemas e trazer todos os benefícios da IA ​​sem seus riscos. Por enquanto, porém, essas preocupações levantam alguns alarmes.

As preocupações com a privacidade são abundantes em qualquer lugar que a IA funcione. Essas questões se tornam mais sérias à medida que desempenha um papel maior no governo. Os projetos estaduais de IA podem fazer muito bem, mas também têm um potencial substancial de danos.

Microsoft avisa que "1984" pode se tornar realidade em três anos

Leia a seguir

CompartilharTweetCompartilharE-mail

Tópicos relacionados

  • Segurança
  • Inteligência artificial
  • Privacidade on-line

Sobre o autor

Shannon Flynn (79 Artigos Publicados)

Shannon é um criador de conteúdo localizado em Philly, PA. Ela tem escrito na área de tecnologia por cerca de 5 anos depois de se formar em TI. Shannon é o editor-chefe da ReHack Magazine e cobre tópicos como segurança cibernética, jogos e tecnologia de negócios.

Mais de Shannon Flynn

Assine a nossa newsletter

Junte-se à nossa newsletter para dicas de tecnologia, análises, e-books gratuitos e ofertas exclusivas!

Clique aqui para assinar