Os especialistas acham que a IA acabará com a humanidade como a conhecemos, então o que está sendo feito para impedir que isso aconteça?

Mais uma vez, um grupo dos principais pesquisadores de IA e empresas de tecnologia alertaram que o atual rápido desenvolvimento da inteligência artificial pode significar um desastre para a humanidade.

Os riscos abrangem conflitos nucleares, doenças, desinformação e IA descontrolada sem supervisão, os quais representam uma ameaça imediata à sobrevivência humana.

Mas não será perdido que muitos desses avisos vêm das mesmas pessoas que lideram o desenvolvimento de IA e promovem ferramentas e programas de inteligência artificial em suas respectivas empresas.

Por que as empresas de tecnologia e os cientistas de IA estão alertando sobre o risco da IA?

Em 30 de maio de 2023, mais de 350 pesquisadores, desenvolvedores e engenheiros de IA divulgaram uma declaração assinada alertando contra a ameaça da IA ​​à humanidade.

Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.

instagram viewer

Signatários do declaração Safe.ai incluiu Sam Altman da OpenAI, Demis Hassabis do Google DeepMind e Dario Amodei da Anthropic, juntamente com Turing Os vencedores do prêmio Geoffrey Hinton e Yoshua Bengio (embora Yann LeCun, que também ganhou o mesmo prêmio, tenha se esquecido de assinar). A lista é quase quem é quem no mundo do desenvolvimento de IA - as pessoas que lideram o caminho com IA - mas aqui estão todos eles, alertando que a IA pode significar um desastre para a humanidade.

É uma declaração curta que deixa as ameaças claras, citando especificamente duas áreas principais que podem colocar em perigo o mundo como o conhecemos: guerra nuclear e questões de saúde global. Embora a ameaça de conflito nuclear seja uma preocupação, o risco de uma pandemia é uma ameaça mais tangível para a maioria.

No entanto, não é apenas uma pandemia global que pode causar problemas de saúde relacionados à IA. O guardião relata vários outros problemas de saúde da IA ​​que podem afetar os humanos se não forem verificados antes do uso generalizado. Um exemplo relacionado ao uso de oxímetros alimentados por IA que "superestimam os níveis de oxigênio no sangue em pacientes com pele mais escura, resultando no subtratamento de sua hipóxia".

Além disso, não é a primeira vez que um grupo de líderes tecnológicos pede uma pausa ou uma reavaliação séria do desenvolvimento da IA. Em março de 2023, Elon Musk e outros pesquisadores de IA assinaram um apelo à ação semelhante solicitando uma moratória no desenvolvimento da IA ​​até que mais regulamentação possa ser implementada para ajudar a orientar o processo.

Qual é o risco da IA?

A maioria dos riscos associados à IA, pelo menos neste contexto, está relacionada ao desenvolvimento de tecnologia de IA descontrolada que excede as capacidades dos humanos, em que eventualmente se volta contra seu criador e apaga a vida como a conhecemos isto. É uma história abordada inúmeras vezes na escrita de ficção científica, mas a realidade agora está mais próxima do que podemos imaginar.

Grandes modelos de linguagem (que sustentam ferramentas como ChatGPT) estão aumentando drasticamente em recursos. No entanto, ferramentas como ChatGPT têm muitos problemas, como preconceito inerente, preocupações com a privacidade e alucinação de IA, sem falar em sua capacidade de ser desbloqueado para agir fora dos limites de seus termos e condições programados.

À medida que os modelos de linguagem grandes aumentam e têm mais pontos de dados para acessar, juntamente com o acesso à Internet e uma maior compreensão dos eventos atuais, os pesquisadores de IA temem que um dia, nas palavras do CEO da OpenAI, Sam Altman, "ir bastante errado."

Como os governos estão regulando o desenvolvimento da IA ​​para interromper os riscos?

A regulamentação da IA ​​é fundamental para prevenir riscos. No início de maio de 2023, Sam Altman pediu mais regulamentação da IA, afirmando que "a intervenção regulatória dos governos será fundamental para mitigar os riscos de modelos cada vez mais poderosos".

Então o A União Europeia anunciou o AI Act, um regulamento criado para fornecer uma estrutura muito mais forte para o desenvolvimento de IA em toda a UE (com muitos regulamentos se espalhando para outras jurisdições). Altman inicialmente ameaçou retirar a OpenAI da UE, mas depois voltou atrás e concordou que a empresa cumpriria o regulamento de IA que ele havia solicitado anteriormente.

Independentemente disso, está claro que a regulamentação do desenvolvimento e dos usos da IA ​​é importante.

A IA acabará com a humanidade?

Como grande parte do debate em torno desse tópico é baseado em hipóteses sobre o poder de versões futuras da IA, há questões sobre a longevidade e o poder que qualquer regulamentação de IA pode ter. Qual a melhor forma de regular uma indústria que já se move a mil milhas por minuto e avanços no desenvolvimento acontecem diariamente?

Além disso, ainda há alguma dúvida sobre as capacidades da IA ​​em geral e onde ela irá parar. Enquanto aqueles que temem o pior apontam para a inteligência artificial geral se tornando um senhor humano, outros apontam para o fato de que as versões atuais da IA ​​não podem nem fazer perguntas básicas de matemática e que os carros totalmente autônomos ainda são uma maneira desligado.

É difícil não concordar com quem olha para o futuro. Muitas das pessoas que gritam mais alto sobre os problemas que a IA pode representar estão no banco do motorista, olhando para onde podemos estar indo. Se são eles que exigem a regulamentação da IA ​​para nos proteger de um futuro potencialmente horrendo, talvez seja hora de ouvir.