Com modelos modernos de linguagem de IA como o ChatGPT e o Bing Chat da Microsoft fazendo sucesso em todo o mundo, várias pessoas estão preocupadas com a IA dominando o mundo.
Embora não encontremos a SkyNet em um futuro previsível, a IA está ficando melhor do que os humanos em várias coisas. É aí que entra o problema do controle de IA.
O problema de controle de IA explicado
O problema do controle da IA é a ideia de que a IA acabará se tornando melhor na tomada de decisões do que os humanos. De acordo com essa teoria, se os humanos não configurarem as coisas corretamente de antemão, não teremos chance de consertar as coisas mais tarde, o que significa que a IA terá controle efetivo.
A pesquisa atual sobre modelos de AI e Machine Learning (ML) está, no mínimo, a anos de superar as capacidades humanas. No entanto, é razoável pensar que, considerando o progresso atual, a IA superará os humanos em termos de inteligência e eficiência.
Isso não quer dizer que os modelos de AI e ML não tenham seus limites. Afinal, eles estão sujeitos às leis da física e à complexidade computacional, bem como ao poder de processamento dos dispositivos que suportam esses sistemas. No entanto, é seguro presumir que esses limites estão muito além das capacidades humanas.
Isso significa que superinteligente Os sistemas de IA podem representar uma grande ameaça se não for projetado adequadamente com proteções para verificar qualquer comportamento potencialmente desonesto. Tais sistemas precisam ser construídos desde o início para respeitar os valores humanos e manter seu poder sob controle. Isso é o que o problema de controle significa quando diz que as coisas devem ser configuradas corretamente.
Se um sistema de IA superasse a inteligência humana sem as devidas salvaguardas, o resultado poderia ser catastrófico. Tais sistemas podem assumir o controle de recursos físicos, pois muitas tarefas são realizadas de maneira melhor ou mais eficiente. Como os sistemas de IA são projetados para alcançar a máxima eficiência, perder o controle pode levar a consequências graves.
Quando o problema de controle de IA se aplica?
O principal problema é que quanto melhor um sistema de IA fica, mais difícil é para um supervisor humano monitorar a tecnologia para garantir que o controle manual possa ser assumido facilmente caso o sistema falhe. Além disso, a tendência humana de confiar em um sistema automatizado é maior quando o sistema funciona de forma confiável na maior parte do tempo.
Um grande exemplo disso é o Suíte Tesla Full-Self Driving (FSD). Embora o carro possa dirigir sozinho, é necessário que um humano tenha as mãos no volante, pronto para assumir o controle do carro caso o sistema funcione mal. No entanto, à medida que esses sistemas de IA se tornam mais confiáveis, até mesmo a atenção do ser humano mais alerta começará a variar e a dependência do sistema autônomo aumentará.
Então, o que acontece quando os carros começam a dirigir em velocidades que os humanos não conseguem acompanhar? Acabamos entregando o controle aos sistemas autônomos do carro, ou seja, um sistema de IA estará no controle de sua vida, pelo menos até você chegar ao seu destino.
O problema de controle de IA pode ser resolvido?
Existem duas respostas para saber se o problema de controle de IA pode ou não ser resolvido. Primeiro, se interpretarmos a questão literalmente, o problema de controle não pode ser resolvido. Não há nada que possamos fazer que atinja diretamente a tendência humana de confiar em um sistema automatizado quando ele funciona de maneira confiável e eficiente na maior parte do tempo.
No entanto, se essa tendência for considerada uma característica de tais sistemas, podemos imaginar maneiras de contornar o problema de controle. Por exemplo, o Tomada de decisão algorítmica e o problema de controle O trabalho de pesquisa sugere três métodos diferentes para lidar com a situação:
- O uso de sistemas menos confiáveis requer que um humano se envolva ativamente com o sistema, pois sistemas menos confiáveis não representam o problema de controle.
- Esperar que um sistema exceda a eficiência e a confiabilidade humanas antes da implantação no mundo real.
- Para implementar apenas automação parcial usando decomposição de tarefa. Isso significa que apenas as partes de um sistema que não requerem um operador humano para executar uma tarefa importante são automatizadas. É chamada de abordagem de alocação dinâmica/complementar de função (DCAF).
A abordagem DCAF sempre coloca um operador humano no comando de um sistema automatizado, garantindo que suas entradas controlem as partes mais importantes do processo de tomada de decisão do sistema. Se um sistema for envolvente o suficiente para que um operador humano preste atenção constantemente, o problema de controle pode ser resolvido.
Podemos realmente controlar a IA?
À medida que os sistemas de IA se tornam mais avançados, capazes e confiáveis, continuaremos transferindo mais tarefas para eles. No entanto, o problema de controle de IA pode ser resolvido com as devidas precauções e salvaguardas.
A IA já está mudando o mundo para nós, principalmente para melhor. Enquanto a tecnologia for mantida sob supervisão humana, não deve haver nada com que nos preocuparmos.