A ideia de que as tecnologias de IA devem ser regulamentadas é um sentimento comum. A maioria dos governos, desenvolvedores de produtos de IA e até usuários comuns de produtos de IA concordam com isso. Infelizmente, a melhor maneira de regular esse campo em rápido crescimento é um quebra-cabeça não resolvido.

Se não forem controladas, as tecnologias de IA podem prejudicar negativamente nosso modo de vida e ameaçar nossa existência. Mas como os governos podem navegar no labirinto de desafios que acompanham esse campo em rápida evolução?

1. Regulamentos de privacidade e proteção de dados

Uma das principais preocupações com as tecnologias de IA é a privacidade e a segurança dos dados. Os sistemas de inteligência artificial são máquinas famintas por dados. Eles precisam de dados para operar, mais dados para serem eficientes e ainda mais dados para melhorar. Embora isso não seja um problema, a forma como esses dados são obtidos, a natureza deles e como são processados ​​e armazenados é um dos maiores pontos de discussão em torno dos regulamentos de IA.

Considerando isso, o caminho lógico a seguir é implementar regulamentos rígidos de privacidade de dados que regem os dados coleta, armazenamento e processamento, bem como os direitos dos indivíduos - cujos dados estão sendo usados ​​- para acessar e controlar seus dados. As questões que esses regulamentos provavelmente abordariam são:

  • Que tipo de dados podem ser coletados?
  • Alguns dados privados devem ser considerados tabu na IA?
  • Como as empresas de IA devem lidar com dados pessoais confidenciais, como registros de saúde ou informações biométricas?
  • As empresas de IA devem ser obrigadas a implementar mecanismos para que os indivíduos solicitem a exclusão ou correção de seus dados pessoais facilmente?
  • Quais são as consequências para as empresas de IA que não cumprem os regulamentos de privacidade de dados? Como a conformidade deve ser monitorada e como a aplicação deve ser assegurada?
  • Talvez o mais importante, que padrão as empresas de IA devem implementar para garantir a segurança da natureza sensível das informações que possuem?

Essas perguntas e algumas outras formaram o cerne da por que o ChatGPT foi temporariamente banido na Itália. A menos que essas preocupações sejam abordadas, o espaço da inteligência artificial pode ser um oeste selvagem para a privacidade de dados, e a proibição da Itália pode se tornar um modelo para proibições de outros países em todo o mundo.

2. Desenvolvimento de uma Estrutura Ética de IA

As empresas de IA frequentemente se gabam de seu compromisso com as diretrizes éticas no desenvolvimento de sistemas de IA. Pelo menos no papel, todos eles são proponentes do desenvolvimento responsável da IA. Na mídia, os executivos do Google enfatizaram como a empresa leva a sério a segurança e a ética da IA. Da mesma forma, "IA segura e ética" é um mantra para o CEO da OpenAI, Sam Altman. Estes são bastante louváveis.

Mas quem está fazendo as regras? Quem decide quais diretrizes éticas de IA são boas o suficiente? Quem decide como é o desenvolvimento seguro da IA? No momento, toda empresa de IA parece ter sua própria opinião sobre o desenvolvimento responsável e ético da IA. OpenAI, Anthropic, Google, Meta, Microsoft, todos. Simplesmente confiar em empresas de IA para fazer a coisa certa é perigoso.

O as consequências de um espaço de IA não verificado podem ser catastróficas. Deixar que empresas individuais decidam quais diretrizes éticas adotar e quais descartar é como entrar em um apocalipse de IA como um sonâmbulo. A solução? Uma estrutura clara de IA ética que garante:

  • Os sistemas de IA não prejudicam ou discriminam injustamente indivíduos ou determinados grupos com base em raça, gênero ou status socioeconômico.
  • Os sistemas de IA são seguros, protegidos e confiáveis ​​e minimizam o risco de consequências não intencionais ou comportamento prejudicial.
  • Os sistemas de IA são construídos tendo em mente o impacto social mais amplo das tecnologias de IA.
  • Que os humanos mantenham o controle final dos sistemas de IA e sua tomada de decisão de forma transparente.
  • Os sistemas de IA são intencionalmente limitados de maneiras vantajosas para os humanos.

3. Agência Reguladora Dedicada

Devido ao seu impacto potencial na civilização humana, a discussão sobre a segurança da IA ​​normalmente é paralela ao risco de uma crise de saúde ou de um desastre nuclear. Evitar potenciais incidentes nucleares requer uma agência dedicada como a NRC (Nuclear Regulatory Commission) dos EUA. Evitar o risco de crises de saúde perigosas requer o estabelecimento do FDA (Food and Drug Administration)

Da mesma forma, para garantir que as coisas não dêem errado no espaço da IA, é necessária uma agência dedicada semelhante ao FDA e ao NRC, pois a IA continua a fazer incursões agressivas em todas as áreas de nossa vida. Infelizmente, a questão da regulamentação da IA ​​no país é complicada. O trabalho de qualquer agência reguladora dedicada provavelmente será terrivelmente difícil sem a cooperação transfronteiriça. Assim como a NRC (Nuclear Regulatory Commission) dos EUA precisa trabalhar de mãos dadas com a Comissão Internacional de Energia Atômica Agência (IAEA) para estar no seu melhor, qualquer agência reguladora de IA dedicada no país também precisaria de um análogo internacional.

Tal agência seria responsável pelo seguinte:

  • Desenvolvimento de regulamentos de IA
  • Garantir a conformidade e a aplicação
  • Supervisionar o processo de revisão ética de projetos de IA
  • Colaboração e cooperação entre países em segurança e ética em IA

4. Abordando questões de direitos autorais e propriedade intelectual

As leis de direitos autorais existentes e as estruturas legais desmoronam diante da Inteligência Artificial. A maneira como as ferramentas de IA, especialmente as ferramentas de IA generativas, são projetadas faz com que pareçam uma máquina de violação de direitos autorais endossada publicamente sobre a qual você não pode fazer nada.

Como? Bem, muitos dos sistemas de IA de hoje são treinados usando materiais protegidos por direitos autorais. Você sabe, artigos protegidos por direitos autorais, músicas protegidas por direitos autorais, imagens protegidas por direitos autorais, etc. É assim que ferramentas como ChatGPT, Bing AI e Google Bard podem fazer as coisas incríveis que fazem.

Embora esses sistemas estejam claramente tirando proveito da propriedade intelectual das pessoas, a maneira como esses sistemas de IA fazem isso não é diferente de um ser humano lendo um livro protegido por direitos autorais, ouvindo músicas protegidas por direitos autorais ou olhando para imagens.

Você pode ler um livro protegido por direitos autorais, aprender novos fatos com ele e usar esses fatos como base para seu próprio livro. Você também pode ouvir uma música protegida por direitos autorais para se inspirar e criar sua própria música. Em ambos os casos, você usou materiais protegidos por direitos autorais, mas isso não significa necessariamente que o produto derivado infrinja os direitos autorais do original.

Embora essa seja uma explicação lógica para explicar a confusão que a IA faz com as leis de direitos autorais, ela ainda prejudica os proprietários dos direitos autorais e da propriedade intelectual. Diante disso, são necessárias regulamentações para:

  • Defina claramente a responsabilidade e as responsabilidades de todas as partes envolvidas no ciclo de vida de um sistema de IA. Isso inclui esclarecer as funções de todas as partes, desde desenvolvedores de IA até usuários finais, para garantir que os responsáveis as partes são responsabilizadas por qualquer violação de direitos autorais ou violações de propriedade intelectual cometidas pela AI sistemas.
  • Reforce as estruturas de direitos autorais existentes e talvez introduza leis de direitos autorais específicas de IA.
  • Para garantir a inovação no espaço da IA, ao mesmo tempo em que protege os direitos dos criadores originais, a AI regulamentos devem redefinir os conceitos de uso justo e trabalho transformador no contexto de Conteúdo gerado por IA. Definições e diretrizes mais claras são necessárias para garantir que o espaço de IA possa continuar a melhorar, respeitando os limites dos direitos autorais. É essencial encontrar um equilíbrio entre inovação e preservação dos direitos dos criadores de conteúdo.
  • Abrir caminhos para a colaboração com os titulares de direitos. Se os sistemas de IA vão usar a propriedade intelectual das pessoas de qualquer maneira, deve haver caminhos ou estruturas claras para desenvolvedores de IA e titulares de direitos a colaborar, especialmente em termos de compensações financeiras, se o trabalho derivado de tais propriedades intelectuais for comercializado.

A regulamentação da IA ​​é uma solução desesperadamente necessária

Embora a inteligência artificial tenha surgido como uma solução promissora para muitos de nossos problemas sociais, a própria IA está rapidamente se tornando um problema que precisa de uma solução urgente. É hora de dar um passo atrás, refletir e fazer as correções necessárias para garantir o impacto positivo da IA ​​na sociedade. Precisamos desesperadamente de uma recalibração urgente de nossa abordagem para construir e usar sistemas de IA.