As inovações mais recentes em torno da tecnologia baseada em IA estão ultrapassando os limites do que pensávamos ser possível com IA. No entanto, com chatbots como ChatGPT e Bing Chat ficando quase tão bons quanto os humanos em várias coisas, é hora de pisar no freio por um tempo?

Elon Musk e vários pesquisadores de IA estão entre as 1.188 pessoas (no momento em que escrevo) que pensam assim. Uma carta publicada pelo instituto sem fins lucrativos Future of Life pede uma pausa de seis meses no treinamento de tecnologias de IA melhores do que GPT 4, mas uma pausa é realmente necessária?

Do que se trata a Carta Aberta do Futuro da Vida?

O carta publicada pelo Instituto Futuro da Vida aponta que os laboratórios de IA foram "travados em uma corrida fora de controle" para desenvolver e implantar mais e modelos de IA mais poderosos que ninguém, incluindo seus criadores, pode "entender, prever ou confiar ao controle".

Ele também aponta que os sistemas de IA contemporâneos estão se tornando competitivos para humanos em tarefas gerais e pede se deveríamos desenvolver "mentes não-humanas que eventualmente superassem em número, fossem mais espertas, obsoletas e substituíssem nós".

A carta eventualmente pede a todos os laboratórios de IA que parem imediatamente o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses. A pausa também deve ser pública e verificável para todos os atores principais. Ele também afirma que, se essa pausa não puder ser aplicada rapidamente, os governos devem intervir para proibir temporariamente o treinamento do modelo de IA.

Uma vez que a pausa está ativa, os laboratórios de IA e especialistas independentes são solicitados a usá-la para desenvolver e implementar em conjunto um "conjunto compartilhado de protocolos de segurança" para garantir que os sistemas que aderem a essas regras sejam "seguros além de um razoável dúvida".

Esta carta foi assinada por algumas personalidades nomeadas, incluindo Elon Musk, Steve Wozniak e pesquisadores e autores de IA. De fato, a lista de signatários está pausada devido à alta demanda.

Quais são as preocupações de Musk com tecnologia avançada de IA e OpenAI?

Embora a assinatura da carta do Future of Life possa indicar que Musk está preocupado com os riscos de segurança que esses sistemas avançados de IA representam, o verdadeiro motivo pode ser outra coisa.

Musk cofundou a OpenAI com o atual CEO Sam Altman em 2015 como uma organização sem fins lucrativos. No entanto, ele bateu de frente com Altman no final de 2018, depois que percebeu que não estava feliz com o progresso da empresa. Musk supostamente queria assumir o controle para acelerar o desenvolvimento, mas Altman e o conselho da OpenAI rejeitaram a ideia.

Musk saiu da OpenAI logo depois e levou seu dinheiro com ele, quebrando sua promessa de contribuir com 1 bilhão em financiamento e dando apenas 100 milhões antes de sair. Isso forçou a OpenAI a se tornar uma empresa privada logo depois, em março de 2019, para arrecadar fundos para continuar suas pesquisas.

Crédito da imagem: Heisenberg Media/Wikimedia Commons

Outra razão pela qual Musk saiu foi que o desenvolvimento de IA na Tesla causaria um conflito de interesses no futuro. É óbvio que a Tesla precisa de sistemas avançados de IA para alimentar seus Recursos completos de direção autônoma. Desde que Musk deixou a OpenAI, a empresa fugiu com seus modelos de IA, lançando Chat GPT com tecnologia GPT3.5 em 2022 e posteriormente seguindo com GPT-4 em março de 2023.

O fato de a equipe de IA de Musk não estar nem perto da OpenAI precisa ser levado em consideração toda vez que ele diz que os modelos modernos de IA podem representar riscos. Ele também não teve problemas lançando o Tesla Full Self-Driving beta em vias públicas, basicamente transformando motoristas regulares da Tesla em testadores beta.

Isso também não acaba aqui. Musk também criticou bastante o OpenAI no Twitter, com Altman chegando a dizer que os está atacando enquanto aparecia no podcast "On with Kara Swisher" recentemente.

No momento, parece que Musk está apenas usando a carta do Futuro da Vida para interromper o desenvolvimento da OpenAI e de qualquer outra empresa que esteja se atualizando. ao GPT-4 para dar a suas empresas uma chance de recuperar o atraso, em vez de realmente se preocupar com os perigos potenciais desses modelos de IA pose. Observe que a carta também pede para interromper o "treinamento" de sistemas de IA por seis meses, o que pode ser facilmente evitado para continuar desenvolvendo-os nesse meio tempo.

Uma pausa é realmente necessária?

A necessidade de uma pausa depende do estado dos modelos de IA daqui para frente. A carta definitivamente tem um tom um pouco dramático, e não estamos arriscando perder o controle de nossa civilização para a IA, como afirma tão abertamente. Dito isto, As tecnologias de IA representam algumas ameaças.

Dado que o OpenAI e outros laboratórios de IA podem apresentar melhores verificações de segurança, uma pausa faria mais mal do que bem. No entanto, a sugestão da carta de um conjunto de protocolos de segurança compartilhados que são "rigorosamente auditados e supervisionados por especialistas externos independentes" soa como uma boa ideia.

Com gigantes da tecnologia como Google e Microsoft despejando bilhões no desenvolvimento e integração de IA em seus produtos, é improvável que a carta afete o ritmo atual de desenvolvimento de IA.

A IA veio para ficar

Com os gigantes da tecnologia impulsionando ainda mais a integração da IA ​​em seus produtos e investindo bilhões de dólares em pesquisa e desenvolvimento, a IA veio para ficar, independentemente do que a oposição diga.

Mas não é uma má ideia implementar medidas de segurança para evitar que essas tecnologias saiam dos trilhos e se transformem em ferramentas para o mal.