Somente nos últimos anos, os recursos de IA avançaram drasticamente. Hoje, podemos usar IA para criar arte, escrever histórias, aprender sobre o mundo e muito mais. Mas tudo isso está acontecendo um pouco cedo demais? A IA está se desenvolvendo muito rapidamente e que sinais existem para sugerir isso?
Por que as pessoas estão preocupadas com a IA?
No final de março de 2023, um documento foi lançado online pelo Future of Life Institute intitulado "Pausar experimentos gigantes de IA: uma carta aberta". O documento apresentava argumentos contra o desenvolvimento da IA além da sofisticação do GPT-4, a mais recente iteração da OpenAI de um chatbot com tecnologia de IA.
Na carta, estava escrito que "sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade" e que "poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administrável".
Várias figuras proeminentes no mundo da tecnologia, incluindo Steve Wozniak e
Elon Musk assinou a carta e quer pausar o desenvolvimento da IA. Esse apelo para interromper o desenvolvimento da IA questionou o quão perigosa a IA está se tornando e os riscos que ela representa para a vida humana.Então, quais sinais indicam que a IA está se movendo muito rapidamente?
1. Competição com humanos
Já vimos a tecnologia substituir trabalhadores humanos em inúmeros cenários. Quando você entra em um restaurante de fast food, agora pode fazer o pedido por meio da tela do computador e, quando deseja comprar mantimentos, pode fazer o checkout com um sistema automatizado. Essa pode ser uma opção rápida e conveniente, mas à medida que a automação se torna mais proeminente em vários setores, a necessidade de trabalhadores humanos está diminuindo.
É aqui que começa o problema. É claro que as pessoas precisam trabalhar para se sustentar, mas o aumento da automação está tornando isso muito mais difícil. Este é especialmente o caso dos trabalhadores de salário mínimo, como os do setor de alimentação, produção e varejo. Tarefas básicas, como verificar pedidos, pegar cargas e limpar, podem ser feitas por máquinas. A integração da IA significa que em breve não precisaremos mais de operadores para esta tecnologia.
Foi relatado por FormStackName que 76% das empresas usam automação para padronizar ou automatizar fluxos de trabalho diários. E com Zapier relatando que 94% dos trabalhadores afirmaram que seu trabalho envolve tarefas repetitivas e demoradas, A automação alimentada por IA pode facilmente se tornar uma parte majoritária da força de trabalho global em todos os indústrias.
2. Incentivando a preguiça humana
Um dos principais benefícios da IA é que ela pode simplificar muitas tarefas. Mas essa comodidade pode muito facilmente dar lugar à preguiça. E, em alguns casos, já o fez.
Veja o ChatGPT, por exemplo. Você pode usar o ChatGPT para fazer várias coisas como escrever ensaios, pesquisar tópicos, criar piadas, traduzir textos e muito mais. Ter um serviço que pode executar tarefas rapidamente para você é ótimo, mas também nos leva à complacência. Reduzir o esforço e a criatividade dessa maneira certamente pode ter um efeito negativo na humanidade como um todo, o que é uma das principais razões pelas quais tantas pessoas estão preocupadas com a IA.
Estamos tão acostumados com serviços baseados em IA em nossos dias modernos que, naturalmente, depositamos muita confiança neles. Por exemplo, o assistente virtual da Microsoft, Cortana, usa aprendizado de máquina e IA para executar os comandos dos usuários. Muitos outros assistentes virtuais, incluindo o Siri da Apple, também usam IA para funcionar.
Confiar nessa tecnologia pode ser seguro, mas não há como saber, especialmente considerando que a IA ainda está em um estágio de desenvolvimento.
3. A disseminação de informações falsas
Nos domínios convencionais, a IA ganhou muita notoriedade por meio de sua capacidade de criar arte, imagens e vídeos. Os serviços baseados em IA não apenas podem ser usados para criar arte, mas também podem criar uma forma de mídia particularmente controversa, conhecida como deepfakes. Deepfakes são vídeos que mostram o rosto de uma pessoa sendo sobreposto ao corpo de outra pessoa.
Isso parece muito divertido, mas pode ser facilmente mal utilizado.
Já existem milhares de vídeos por aí de celebridades e figuras políticas que parecem dizer coisas incrivelmente obscenas e inapropriadas por meio de deepfakes. Embora alguns deepfakes sejam muito fáceis de identificar, alguns são tão sofisticados que é difícil discernir se são reais ou não. Quando isso acontece, as pessoas podem presumir que uma figura pública disse algo que, na realidade, nunca foi dito por elas.
A partir disso, as pessoas irão opinar sobre esses vídeos, contribuindo assim para a disseminação de desinformação online.
Além disso, os chatbots com inteligência artificial também podem fornecer informações falsas aos usuários. Chatbots como ChatGPT, Boost. AI e Drift podem fornecer aos usuários muitas informações, mas essas informações nem sempre são necessariamente precisas. Conforme discutido por O guardião, os chatbots de IA não estão de forma alguma comprometidos em fornecer a você informações verdadeiras, o que significa que notícias falsas podem facilmente passar despercebidas e chegar até você.
4. A criação de malware
No início de 2023, começou a circular uma notícia sobre atores mal-intencionados criando malware usando ChatGPT. Nesse caso, a empresa de análise cibernética Check Point Research descobriu que indivíduos estavam discutindo os benefícios de usar o ChatGPT para criar malware em um fórum de hackers. O autor da postagem no fórum compartilhou um infostealer que eles escreveram em Python usando o ChatGPT, incentivando outros atores mal-intencionados a criar malware usando o chatbot.
Os programas de malware precisam ser codificados, o que pode ser demorado, especialmente se o criador não estiver usando um modelo de um programa pré-existente.
Ao usar o ChatGPT, os agentes mal-intencionados não apenas simplificam o processo de criação de malware, mas indivíduos com menos conhecimento tecnológico podem criar malware. À medida que a sofisticação da IA continua avançando, pode ser possível criar malware incrivelmente sofisticado que pode ignorar a detecção de antivírus, autenticação, firewalls e outras medidas de proteção.
5. A falta de regulamentação
Um problema comum na indústria de tecnologia é a falta de regulamentação para serviços mais recentes, como plataformas baseadas em blockchain e produtos de IA. A falta de regulamentação pode ser considerada boa por alguns, mas também pode dar lugar a práticas ilícitas.
Não apenas a falta de regulamentação pode levar a um aumento de golpes e crimes cibernéticos alimentados por IA, mas a maneira como os pesquisadores desenvolvem tecnologias de IA também pode começar a cruzar algumas fronteiras sérias. Há considerações éticas que devem ser feitas ao lidar com IA. Um sistema pode se tornar muito consciente? Que tipo de efeitos que a IA terá na vida humana? Devemos aproveitar a IA dessa maneira? A lista de perguntas continua.
Sem regulamentação, algumas empresas podem começar a ultrapassar limites morais, o que pode, por sua vez, ser uma notícia muito ruim para o público em geral.
AI está se movendo em um ritmo rápido e certamente apresenta riscos
Não há como negar que o potencial da IA é vasto, mas isso deve ser aproveitado adequadamente para reduzir a chance de as coisas saírem do controle. Já vimos a IA ser usada de forma maliciosa, então não há como saber como esse problema pode se desenvolver à medida que as coisas avançam. O tempo dirá se a IA se tornará uma bênção ou uma maldição em nosso mundo, e a maneira como ela é tratada agora certamente desempenhará um papel importante nesse resultado.