Propaganda
Nos últimos meses, você pode ter lido a cobertura em torno um artigo, em co-autoria de Stephen Hawking, discutindo os riscos associados à inteligência artificial. O artigo sugeriu que a IA pode representar um risco sério para a raça humana. Hawking não está sozinho lá - Elon Musk e Peter Thiel são figuras públicas intelectuais que expressaram preocupações semelhantes (Thiel investiu mais de US $ 1,3 milhão pesquisando o problema e possíveis soluções).
A cobertura do artigo de Hawking e dos comentários de Musk foi, para não dizer muito, um pouco jovial. O tom tem sido muito "Olhe para essa coisa estranha com a qual todos esses nerds estão preocupados." Pouca consideração é dada à idéia de que, se algumas das pessoas mais inteligentes da Terra o alertarem que algo pode ser muito perigoso, pode valer a pena ouvir.
Isso é compreensível - a inteligência artificial dominar o mundo certamente parece muito estranha e implausível, talvez por causa da enorme atenção já dada a essa idéia pela ficção científica escritoras. Então, o que tem assustado todas essas pessoas racionalmente nominalmente sãs?
O que é inteligência?
Para falar sobre o perigo da Inteligência Artificial, pode ser útil entender o que é inteligência. Para entender melhor o problema, vamos dar uma olhada na arquitetura de IA de brinquedos usada por pesquisadores que estudam a teoria do raciocínio. Esse brinquedo AI é chamado AIXI e possui várias propriedades úteis. Seus objetivos podem ser arbitrários, dimensionam-se bem com o poder da computação e seu design interno é muito limpo e direto.
Além disso, você pode implementar versões simples e práticas da arquitetura que podem fazer coisas como jogar Pacman, se você quiser. O AIXI é o produto de um pesquisador de IA chamado Marcus Hutter, sem dúvida o principal especialista em inteligência algorítmica. É ele falando no vídeo acima.
O AIXI é surpreendentemente simples: possui três componentes principais: aprendiz, planejadore função útil.
- o aprendiz coleta seqüências de bits que correspondem a informações sobre o mundo exterior e pesquisa programas de computador até encontrar aqueles que produzem suas observações como saída. Esses programas, juntos, permitem fazer palpites sobre como será o futuro, simplesmente executando cada avançar e ponderar a probabilidade do resultado pela duração do programa (uma implementação da Occam Navalha).
- o planejador pesquisa as possíveis ações que o agente pode executar e usa o módulo do aluno para prever o que aconteceria se cada um deles fosse executado. Em seguida, classifica-os de acordo com quão bons ou ruins são os resultados previstos e escolhe o curso da ação que maximiza a qualidade do resultado esperado multiplicado pela probabilidade esperada de alcançá-lo.
- O último módulo, o função útil, é um programa simples que inclui uma descrição de um estado futuro do mundo e calcula uma pontuação de utilidade para ele. Essa pontuação da utilidade é quão bom ou ruim é esse resultado e é usado pelo planejador para avaliar o estado mundial futuro. A função utilidade pode ser arbitrária.
- Tomados em conjunto, esses três componentes formam um otimizador, que otimiza para um objetivo específico, independentemente do mundo em que se encontra.
Este modelo simples representa uma definição básica de um agente inteligente. O agente estuda seu ambiente, cria modelos e, em seguida, usa esses modelos para encontrar o curso de ação que maximizará as chances de conseguir o que deseja. AIXI é semelhante em estrutura a uma IA que joga xadrez ou outros jogos com regras conhecidas - exceto que é capaz de deduzir as regras do jogo jogando-o, começando do zero conhecimento.
O AIXI, com tempo suficiente para calcular, pode aprender a otimizar qualquer sistema para qualquer objetivo, por mais complexo que seja. É um algoritmo geralmente inteligente. Observe que isso não é o mesmo que ter inteligência semelhante à humana (a IA de inspiração biológica é uma tópico completamente diferente Giovanni Idili, do OpenWorm: cérebros, worms e inteligência artificialA simulação de um cérebro humano está longe, mas um projeto de código aberto está dando os primeiros passos vitais, simulando a neurologia e a fisiologia de um dos animais mais simples conhecidos pela ciência. consulte Mais informação ). Em outras palavras, o AIXI pode superar qualquer ser humano em qualquer tarefa intelectual (com poder computacional suficiente), mas pode não estar consciente de sua vitória Máquinas pensantes: o que a neurociência e a inteligência artificial podem nos ensinar sobre a consciênciaA construção de máquinas e software artificialmente inteligentes pode nos ensinar sobre o funcionamento da consciência e a natureza da própria mente humana? consulte Mais informação .
Como uma IA prática, o AIXI tem muitos problemas. Primeiro, não há como encontrar os programas que produzem a saída na qual estão interessados. É um algoritmo de força bruta, o que significa que não é prático se você não tiver um computador arbitrariamente poderoso por perto. Qualquer implementação real do AIXI é necessariamente uma aproximação e (hoje) geralmente é bastante grosseira. Ainda assim, o AIXI nos dá um vislumbre teórico de como uma poderosa inteligência artificial pode parecer e como ela pode raciocinar.
O espaço de valores
E se você fez alguma programação de computador Noções básicas de programação de computadores 101 - Variáveis e tipos de dadosTendo introduzido e falado um pouco sobre Programação Orientada a Objetos antes e onde seu homônimo vem, pensei que era hora de passarmos pelo básico absoluto da programação em um idioma não específico da linguagem caminho. Este... consulte Mais informação , você sabe que os computadores são ofensivamente, pedanticamente e mecanicamente literais. A máquina não sabe nem se importa com o que você deseja: faz apenas o que foi informado. Essa é uma noção importante ao falar sobre inteligência de máquina.
Com isso em mente, imagine que você inventou uma poderosa inteligência artificial - você surgiu com algoritmos inteligentes para gerar hipóteses que correspondem aos seus dados e para gerar bons candidatos planos. Sua IA pode resolver problemas gerais e de maneira eficiente no hardware do computador moderno.
Agora é hora de escolher uma função de utilitário, que determinará o que a IA valoriza. O que você deve pedir para valorizar? Lembre-se de que a máquina será desagradável, literalmente pedantemente sobre qualquer função que você pedir para maximizar e nunca irá parar - não há fantasma no a máquina que 'acorda' e decide mudar sua função de utilidade, independentemente de quantas melhorias de eficiência ela faz raciocínio.
Eliezer Yudkowsky põe desta forma:
Como em toda programação de computadores, o desafio fundamental e a dificuldade essencial da AGI é que, se escrevermos o código errado, a IA não examinará automaticamente nosso código, marcará os erros, descobrirá o que realmente queremos dizer e fará isso em vez de. Os não programadores às vezes imaginam um AGI, ou programas de computador em geral, como sendo análogo a um servidor que segue ordens inquestionavelmente. Mas não é que a IA seja absolutamente obediente ao seu código; ao contrário, a IA simplesmente é o código.
Se você estiver tentando operar uma fábrica e instruir a máquina a valorizar a criação de clipes de papel e depois controlar o grupo de robôs da fábrica, pode retornar no dia seguinte e descobrir que ficou sem todas as outras formas de matéria-prima, matou todos os seus funcionários e produziu clipes de papel permanece. Se, em uma tentativa de corrigir seu erro, você reprogramar a máquina para simplesmente deixar todo mundo feliz, poderá voltar no dia seguinte e descobrir que ela está colocando fios no cérebro das pessoas.
O ponto aqui é que os seres humanos têm muitos valores complicados que assumimos serem compartilhados implicitamente com outras mentes. Valorizamos o dinheiro, mas valorizamos mais a vida humana. Queremos ser felizes, mas não queremos necessariamente colocar fios em nossos cérebros para fazê-lo. Não sentimos a necessidade de esclarecer essas coisas quando damos instruções a outros seres humanos. Você não pode fazer esse tipo de suposição, no entanto, ao projetar a função utilitária de uma máquina. As melhores soluções sob a matemática sem alma de uma função de utilidade simples são frequentemente soluções que os seres humanos considerariam moralmente horríveis.
Permitir que uma máquina inteligente maximize uma função de utilidade ingênua quase sempre será catastrófico. Como o filósofo de Oxford Nick Bostom coloca,
Não podemos presumir alegremente que uma superinteligência necessariamente compartilhará qualquer um dos valores finais estereotipicamente associados à sabedoria e desenvolvimento intelectual em humanos - curiosidade científica, preocupação benevolente pelos outros, iluminação e contemplação espirituais, renúncia à aquisição material, gosto pela cultura refinada ou pelos prazeres simples da vida, humildade e abnegação; e assim por diante.
Para piorar a situação, é muito, muito difícil especificar a lista completa e detalhada de tudo o que as pessoas valorizam. Há muitas facetas na questão, e esquecer até uma única é potencialmente catastrófico. Mesmo entre aqueles que conhecemos, existem sutilezas e complexidades que dificultam anotá-las como sistemas limpos de equações que podemos atribuir a uma máquina como uma função de utilidade.
Algumas pessoas, ao lerem isso, concluem que construir AIs com funções de utilidade é uma péssima idéia, e devemos apenas projetá-las de maneira diferente. Aqui também há más notícias - você pode provar formalmente que qualquer agente que não possua algo equivalente a uma função de utilidade não pode ter preferências coerentes sobre o futuro.
Auto-aperfeiçoamento recursivo
Uma solução para o dilema acima é não dar aos agentes de IA a oportunidade de ferir as pessoas: dê-lhes apenas os recursos necessários para resolva o problema da maneira que você pretende que seja resolvido, supervisione-o de perto e mantenha-o longe das oportunidades de fazer grandes prejuízo. Infelizmente, nossa capacidade de controlar máquinas inteligentes é altamente suspeita.
Mesmo que eles não sejam muito mais inteligentes do que nós, existe a possibilidade de a máquina "inicializar" - coletar hardware melhor ou fazer melhorias em seu próprio código que o torna ainda mais inteligente. Isso poderia permitir que uma máquina ultrapassasse a inteligência humana em muitas ordens de magnitude, superando os humanos no mesmo sentido em que os humanos são mais espertos que os gatos. Esse cenário foi proposto pela primeira vez por um homem chamado I. J. Bom, quem trabalhou no projeto de análise de criptografia Enigma com Alan Turing durante a Segunda Guerra Mundial. Ele chamou de "Explosão de inteligência" e descreveu o assunto assim:
Que uma máquina ultra-inteligente seja definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Como o design de máquinas é uma dessas atividades intelectuais, uma máquina ultra-inteligente pode projetar máquinas ainda melhores; inquestionavelmente haveria uma "explosão de inteligência", e a inteligência do homem ficaria para trás. Assim, a primeira máquina ultra-inteligente é a última invenção que o homem precisa fazer, desde que a máquina seja dócil o suficiente.
Não é garantido que uma explosão de inteligência seja possível em nosso universo, mas parece provável. À medida que o tempo passa, os computadores obtêm informações mais rápidas e básicas sobre o desenvolvimento da inteligência. Isso significa que o requisito de recurso para dar o último salto para uma inteligência geral e rápida diminui cada vez mais. Em algum momento, nos encontraremos em um mundo em que milhões de pessoas poderão acessar a Best Buy e adquirir o hardware e literatura técnica que eles precisam para construir uma inteligência artificial auto-aperfeiçoadora, que já estabelecemos pode ser muito perigoso. Imagine um mundo em que você poderia fazer bombas atômicas com paus e pedras. Esse é o tipo de futuro que estamos discutindo.
E, se uma máquina der esse salto, ela poderá superar rapidamente a espécie humana em termos de propriedade intelectual. produtividade, resolvendo problemas que um bilhão de pessoas não conseguem resolver, da mesma maneira que os humanos podem resolver problemas que um bilhões de gatos não conseguem.
Ele poderia desenvolver robôs poderosos (ou bio ou nanotecnologia) e ganhar relativamente rapidamente a capacidade de remodelar o mundo como quisesse, e haveria muito pouco que pudéssemos fazer sobre isso. Tal inteligência poderia despojar a Terra e o resto do sistema solar de peças de reposição sem muitos problemas, a caminho de fazer o que dissermos. Parece provável que esse desenvolvimento seria catastrófico para a humanidade. Uma inteligência artificial não precisa ser maliciosa para destruir o mundo, apenas catastroficamente indiferente.
Como diz o ditado, "A máquina não ama ou odeia você, mas você é feito de átomos que pode ser usado para outras coisas".
Avaliação e Mitigação de Riscos
Portanto, se aceitarmos que é ruim projetar uma inteligência artificial poderosa que maximize uma função de utilidade simples, em quantos problemas realmente estamos? Quanto tempo temos até que seja possível construir esse tipo de máquina? É claro que é difícil dizer.
Os desenvolvedores de inteligência artificial são fazendo progresso. 7 sites incríveis para ver as últimas novidades em programação de inteligência artificialA inteligência artificial ainda não é HAL de 2001: The Space Odyssey... mas estamos chegando muito perto. Com certeza, um dia poderia ser tão parecido com os boatos de ficção científica sendo produzidos por Hollywood ... consulte Mais informação As máquinas que construímos e os problemas que eles podem resolver têm crescido constantemente. Em 1997, Deep Blue podia jogar xadrez em um nível superior ao de um grande mestre humano. Em 2011, o Watson da IBM pôde ler e sintetizar informações suficientes de maneira profunda e rápida o suficiente para vencer o melhor desempenho humano. jogadores em um jogo aberto de perguntas e respostas repleto de trocadilhos e jogo de palavras - isso faz muito progresso em catorze anos.
No momento, o Google está investindo pesadamente na pesquisa de aprendizagem profunda, uma técnica que permite a construção de poderosas redes neurais através da construção de cadeias de redes neurais mais simples. Esse investimento está permitindo um progresso sério no reconhecimento de fala e imagem. Sua aquisição mais recente na área é uma startup de Deep Learning chamada DeepMind, pela qual pagaram aproximadamente US $ 400 milhões. Como parte dos termos do acordo, o Google concordou em criar um conselho de ética para garantir que sua tecnologia de IA seja desenvolvida com segurança.
Ao mesmo tempo, a IBM está desenvolvendo os sistemas Watson 2.0 e 3.0, capazes de processar imagens e vídeos e argumentar para defender conclusões. Eles deram uma demonstração simples e precoce da capacidade do Watson de sintetizar argumentos a favor e contra um tópico na demonstração em vídeo abaixo. Os resultados são imperfeitos, mas um passo impressionante, independentemente.
Nenhuma dessas tecnologias é perigosa no momento: a inteligência artificial como campo ainda está lutando para combinar habilidades dominadas por crianças pequenas. A programação de computadores e o design de IA são uma habilidade cognitiva de alto nível e muito difícil, e provavelmente serão a última tarefa humana em que as máquinas se tornam proficientes. Antes de chegarmos a esse ponto, também teremos máquinas onipresentes que pode dirigir Veja como chegaremos a um mundo cheio de carros sem motoristaDirigir é uma tarefa tediosa, perigosa e exigente. Um dia, poderia ser automatizado pela tecnologia de carros sem motorista do Google? consulte Mais informação , praticar medicina e direito, e provavelmente outras coisas também, com profundas consequências econômicas.
O tempo que levamos para chegar ao ponto de inflexão do auto-aperfeiçoamento depende da rapidez com que temos boas idéias. A previsão de avanços tecnológicos desses tipos é notoriamente difícil. Não parece irracional que possamos construir IA forte dentro de vinte anos, mas também não parece irracional que possa demorar oitenta anos. De qualquer forma, isso acontecerá eventualmente, e há motivos para acreditar que, quando isso acontecer, será extremamente perigoso.
Então, se aceitarmos que isso será um problema, o que podemos fazer sobre isso? A resposta é garantir que as primeiras máquinas inteligentes sejam seguras, para que possam inicializar até um nível significativo de inteligência e, em seguida, nos proteger de máquinas inseguras criadas posteriormente. Essa "segurança" é definida pelo compartilhamento de valores humanos e pelo desejo de proteger e ajudar a humanidade.
Como não podemos realmente sentar e programar valores humanos na máquina, provavelmente será necessário projetar uma função de utilitário que exija que a máquina observe os humanos, deduza nossos valores e tente maximizá-los. Para tornar esse processo de desenvolvimento seguro, também pode ser útil desenvolver inteligências artificiais projetadas especificamente não ter preferências sobre suas funções utilitárias, permitindo corrigi-las ou desativá-las sem resistência, se elas começarem a se perder durante o desenvolvimento.
Muitos dos problemas que precisamos resolver para criar uma inteligência de máquina segura são difíceis matematicamente, mas há motivos para acreditar que eles podem ser resolvidos. Várias organizações diferentes estão trabalhando no assunto, incluindo o Instituto do Futuro da Humanidade em Oxford, e as Instituto de Pesquisa em Inteligência de Máquinas (que Peter Thiel financia).
A MIRI está interessada especificamente em desenvolver a matemática necessária para criar a IA Amigável. Se acontecer que a inteligência artificial de inicialização é possível, desenvolva esse tipo de A tecnologia de 'IA amigável' primeiro, se for bem-sucedida, pode acabar sendo a coisa mais importante que os humanos têm já feito.
Você acha que a inteligência artificial é perigosa? Você está preocupado com o que o futuro da IA pode trazer? Compartilhe seus pensamentos na seção de comentários abaixo!
Créditos da imagem: Lwp Kommunikáció Via Flickr, “Rede neural", Por fdecomite" img_7801", De Steve Rainwater," E-Volve ", de Keoni Cabral,"new_20x", De Robert Cudmore,"Clipes de papel“, De Clifford Wallace
Escritor e jornalista baseado no sudoeste, Andre tem a garantia de permanecer funcional até 50 graus Celsius e é à prova d'água a uma profundidade de nove metros.