O desenvolvimento da IA ​​está a avançar rapidamente, mas quem deve orientar a IA e o seu impacto no mundo?

Principais conclusões

  • A IA necessita de uma monitorização mais rigorosa, à medida que continuam a surgir vulnerabilidades de segurança cibernética e preocupações com a privacidade.
  • O governo, as empresas de tecnologia e os utilizadores finais têm um papel a desempenhar na regulação da IA, mas cada abordagem tem as suas limitações.
  • Os meios de comunicação social, as organizações sem fins lucrativos, as associações da indústria tecnológica, as instituições académicas e as agências responsáveis ​​pela aplicação da lei também contribuem para a regulamentação da IA.

O público em geral tem opiniões diferentes sobre a IA – alguns acreditam que as máquinas substituirão completamente os trabalhadores humanos, enquanto outros afirmam que a IA é uma moda passageira. Uma coisa em que todos concordam, porém, é que a IA precisa de um monitoramento mais rigoroso.

Apesar da importância da regulamentação da IA, esta ficou em segundo plano em relação à formação. Os desenvolvedores estão tão obcecados em construir o próximo maior modelo de IA que estão trocando a segurança cibernética por um avanço rápido. A questão não é se a IA precisa de regulamentação; é qual órgão governamental com financiamento adequado, recursos humanos e capacidade tecnológica tomará a iniciativa.

Então, quem deveria regulamentar a IA?

Órgãos governamentais

Várias pessoas, desde consumidores até líderes de tecnologia, esperam que o governo regule a IA. As instituições financiadas publicamente têm os recursos para o fazer. Até Elon Musk e Sam Altman, dois principais pilotos da corrida da IA, acreditam que alguns preocupações de privacidade em torno da IA são demasiado perigosos para serem ignorados pelos órgãos governamentais.

O governo deve concentrar-se na proteção da privacidade e das liberdades civis dos seus constituintes se assumir a regulamentação da IA. Os cibercriminosos continuam a encontrar formas de explorar sistemas de IA nos seus esquemas. Indivíduos não versados ​​em IA podem facilmente ser enganados por vozes sintetizadas, vídeos deepfake e perfis online operados por bots.

No entanto, um grande problema com o governo que regulamenta a IA é que esta pode inadvertidamente sufocar a inovação. A IA é uma tecnologia complexa e em evolução. A menos que os funcionários que supervisionam a implantação, o desenvolvimento e as diretrizes de formação compreendam como funciona a IA, poderão fazer julgamentos prematuros e ineficientes.

Desenvolvedores de IA, empresas de tecnologia e laboratórios

Considerando os potenciais obstáculos que podem surgir do monitoramento governamental da IA, muitos prefeririam que as empresas de tecnologia liderassem a regulamentação. Eles acreditam que os desenvolvedores devem ser responsáveis ​​pela tecnologia que lançam. A autorregulação permite-lhes impulsionar a inovação e concentrar-se no avanço destes sistemas de forma eficiente.

Além disso, a sua compreensão profunda da IA ​​irá ajudá-los a elaborar diretrizes justas e informadas, priorizando a segurança do utilizador sem comprometer a funcionalidade. Como acontece com qualquer tecnologia, a experiência do setor agiliza o monitoramento. Designar funcionários sem formação para regular tecnologias que mal compreendem pode apresentar mais problemas do que benefícios.

Tomemos como exemplo a audiência do Senado dos EUA em 2018 sobre as leis de privacidade de dados do Facebook. Neste relatório de O Washington Post, você verá que muitos legisladores estão confusos com as funções básicas do Facebook. Portanto, a menos que o Senado dos EUA crie um departamento único de especialistas em tecnologia, eles provavelmente não estarão qualificados para regular um sistema tão avançado e em constante mudança como a IA.

No entanto, o principal problema com a auto-regulação das empresas de tecnologia é que as empresas duvidosas podem abusar do seu poder. Sem a intervenção de terceiros, eles são basicamente livres para fazer o que quiserem.

Usuários finais

Alguns temem que entidades governamentais e privadas abusem dos sistemas de IA. Eles não têm certeza sobre a concessão de controle total a um punhado de órgãos governamentais sobre tecnologias tão poderosas, especialmente porque a IA ainda está em evolução. Eles poderão eventualmente lutar pela autoridade em vez de trabalhar no sentido de uma regulamentação eficiente.

Para mitigar esses riscos, os céticos acreditam que os usuários finais merecem liberdade para usar os modelos de IA como quiserem. Eles dizem que os órgãos governamentais só devem interferir quando os usuários de IA infringem a lei. É um objetivo ambicioso, mas poderia ser tecnicamente alcançado se os desenvolvedores de IA de código aberto dominassem as participações de mercado.

Dito isto, esta configuração coloca em desvantagem os indivíduos que não entendem de tecnologia. Os usuários são responsáveis ​​por definir as restrições em seus sistemas – infelizmente, nem todos têm recursos para fazer isso.

Também é míope remover modelos proprietários do mercado. A proliferação de modelos de IA de código aberto têm vários impactos positivos e negativos; para alguns, os contras superam os prós.

Outras entidades que desempenham um papel na regulamentação da IA

Embora grandes entidades liderem a regulamentação da IA, existem órgãos que desempenham papéis significativos:

Os meios de comunicação desempenham um papel fundamental na formação da percepção do público sobre a IA. Eles relatam desenvolvimentos da indústria, compartilham novas ferramentas, conscientizam sobre os usos prejudiciais da IA ​​e entrevistam especialistas sobre preocupações relevantes.

A maioria dos fatos que os usuários finais sabem sobre IA vem basicamente dos meios de comunicação. A publicação de dados falsos, propositalmente ou não, causará danos irreversíveis – não se pode subestimar a rapidez com que a desinformação se espalha.

2. Organizações não-governamentais

Várias organizações sem fins lucrativos estão centradas na proteção da privacidade e das liberdades civis dos usuários de IA. Eles educam o público através de recursos gratuitos, defendem novas políticas, cooperam com funcionários do governo e expressam preocupações negligenciadas.

O único problema com as organizações sem fins lucrativos é que geralmente têm poucos recursos. Como não estão ligados ao governo, dependem de solicitações e doações privadas para as operações diárias. Infelizmente, apenas algumas organizações obtêm financiamento adequado.

3. Associações da Indústria Tecnológica

As associações da indústria tecnológica focadas na IA podem representar os direitos e interesses do público. Tal como as organizações sem fins lucrativos, trabalham com legisladores, representam indivíduos preocupados, defendem políticas justas e sensibilizam para questões específicas.

A diferença, porém, é que muitas vezes têm vínculos com empresas privadas. Seus membros ainda fazem solicitações, mas geralmente recebem financiamento suficiente de suas organizações-mãe, desde que apresentem resultados.

4. Instituições acadêmicas

Embora a IA apresente vários riscos, é inerentemente neutra. Todos os preconceitos, questões de privacidade, erros de segurança e possíveis atividades de crimes cibernéticos provêm de seres humanos, portanto, a IA por si só não é algo a temer.

Mas muito poucos já entendem como funcionam os modelos modernos de IA. Os equívocos distorcem a percepção das pessoas sobre a IA, perpetuando medos infundados, como o de que a IA assuma o controle da humanidade ou roube empregos.

As instituições académicas poderiam preencher estas lacunas educativas através de recursos acessíveis. Ainda não existem muitos trabalhos acadêmicos sobre LLMs modernos e sistemas de PNL. O público pode usar a IA de forma mais responsável e combater os crimes cibernéticos se compreender perfeitamente como ela funciona.

5. Agências de aplicação da lei

As agências de aplicação da lei devem esperar encontrar mais Ataques cibernéticos habilitados para IA. Com a proliferação de modelos generativos, os criminosos podem sintetizar vozes rapidamente, gerar imagens deepfake, raspar informação pessoalmente identificável (PII) e até mesmo criar personas totalmente novas.

A maioria das agências não está equipada para lidar com esses crimes. Devem investir em novos sistemas e formar os seus agentes em crimes cibernéticos modernos; caso contrário, eles terão dificuldade em capturar esses bandidos.

O futuro da regulamentação da IA

Considerando a natureza acelerada da IA, é improvável que um único órgão de governo a controle. Sim, os líderes tecnológicos deterão mais poder do que os consumidores, mas várias entidades devem cooperar para gerir os riscos da IA ​​sem impedir os avanços. É melhor definir medidas de controle agora, enquanto a inteligência artificial geral (AGI) ainda é um objetivo distante.

Dito isto, a regulamentação da IA ​​está tão distante quanto a AGI. Entretanto, os utilizadores devem observar práticas de segurança para combater ameaças provocadas pela IA. Bons hábitos, como limitar o número de pessoas com quem você se conecta on-line e proteger suas PII digitais, já são muito úteis.