A arte autêntica pode realmente ser protegida da IA? Os criativos parecem cada vez mais impotentes.

Ferramentas de IA generativas, como Midjourney e Stable Diffusion, estão produzindo visuais cada vez mais convincentes. No entanto, eles contam com vastos bancos de dados de trabalho de criativos para gerar seu conteúdo. Neste ponto, você deve estar se perguntando se existe uma maneira de proteger seu trabalho das ferramentas de IA e a resposta é: é complicado.

As ferramentas de IA generativa usam modelos de aprendizado de máquina treinados para executar ações usando grandes conjuntos de dados. Digamos que estamos falando de um gerador de imagem AI como o Midjourney. Nesse caso, os conjuntos de dados usados ​​para treinamento incluem bilhões de pares de imagem e texto, desde o trabalho de artistas lendários como Picasso até criativos profissionais e amadores.

Os geradores de arte de IA usam esses pares de texto de mídia para gerar conteúdo visual em resposta aos prompts de texto do usuário. Basicamente, eles usam o trabalho de artistas existentes e combinam padrões com pares de texto (postagens sociais, legendas, texto alternativo, etc.) para que os usuários possam gerar novos visuais de prompts como “um céu noturno estrelado no estilo de Vincent van Gogh” ou “uma cena neo-noir de um detetive bebendo uísque no centro da cidade dos anos 1950 AL”.

Por que tantos artistas estão chateados?

A maior reclamação dos criativos é que as ferramentas generativas de IA usam seu trabalho sem permissão. Eles também não estão simplesmente usando seu trabalho para treinar algoritmos.

A conversa de marketing sobre IA generativa sugere que essas ferramentas criam conteúdo exclusivo, mas não. O que eles realmente fazem é combinar dados de várias peças de arte e juntá-los para gerar algo que corresponda ao prompt do usuário.

O próprio termo geração de IA é enganoso. A replicação de IA seria mais precisa, e o truque com essas ferramentas é que elas replicam grandes volumes de obras de arte e as misturam.

As ferramentas generativas de IA são projetadas para substituir os criativos - e estão fazendo isso usando sua arte. E, como se isso não bastasse, a maioria das ferramentas de IA faz tudo isso sem pedir permissão, oferecer qualquer compensação ou mesmo creditar os criadores originais.

Infelizmente, a única maneira de impedir que ferramentas de IA acessem qualquer conteúdo seu é não publicar nada online. Pode parecer extremo, mas esta é a realidade. Claro, você pode usar o arquivo robots.txt em seu site para impedir que as ferramentas de IA raspem seu site, ou proteja suas imagens da IA optando por não receber conjuntos de dados de treinamento, mas esses métodos têm várias limitações.

Em primeiro lugar, os comandos no arquivo robots.txt são consultivos, o que significa que os sites não têm nenhuma obrigação legal de aderir. Em segundo lugar, você teria que impedir que uma empresa como o Google rastreie seu site, o que é basicamente um suicídio de SEO. E, por último, o arquivo robots.txt apenas lhe dá controle (limitado) sobre o acesso ao seu site, não faz nada para proteger o conteúdo que você publica em outro lugar: mídia social, serviços em nuvem e assim por diante.

Infelizmente para os criativos, o cenário vai piorar antes de melhorar.

A política de privacidade do Google pode significar que ele usa todo o conteúdo on-line para treinar seus algoritmos de IA

Em julho de 2023, o Google atualizou sua política de privacidade para dizer que usará conteúdo online para treinar seus sistemas de IA, incluindo Brad, Google Tradutor e outros. O Google usa a frase “fontes publicamente acessíveis”. Aqui está a citação que levantou alguns alarmes após a atualização:

“Por exemplo, podemos coletar informações publicamente disponíveis online ou de outras fontes públicas para ajudar treine os modelos de IA do Google e crie produtos e recursos, como recursos de IA do Google Translate, Bard e Cloud.” – Política de Privacidade do Google

Em outras palavras, o Google agora está dizendo que qualquer coisa que você publicar online está disponível. No mínimo, o Google facilita a comparação de atualizações de sua política de privacidade, destacando as alterações mais recentes:

Como você pode ver, as mudanças na redação são bastante sutis, mas as implicações são significativas. Anteriormente, as principais funções dos modelos de idioma do Google eram interpretar as consultas de pesquisa e traduzir o texto para outros idiomas.

Agora, a empresa diz que pode usar todas as fontes acessíveis ao público para treinar seu conjunto completo de modelos de IA. Isso inclui seu sistema generativo de IA, Bard, e se expande além dos modelos de linguagem para incluir todas as ferramentas/recursos de IA do Google – o exemplo mais óbvio é a geração de imagens.

As redes sociais podem usar qualquer conteúdo que você publicar em suas plataformas

Meta também tem acesso irrestrito a tudo publicado no Facebook, Instagram e Threads. Esta é uma prática padrão para plataformas sociais se você ler os T&Cs. Assim que você carrega algo em uma rede social, eles têm o direito de usá-lo e reutilizá-lo da maneira que desejarem.

Muito de usuários sociais encontraram empresas usando suas imagens em anúncios sem permissão, incluindo criativos. Infelizmente, se essa empresa for a rede social para a qual você carregou a imagem, a empresa controladora da rede ou outra marca pertencente à mesma empresa controladora, você está sem sorte.

Para a maioria das pessoas, as chances de uma plataforma como o Instagram usar uma de suas imagens para uma campanha publicitária são muito baixas. No entanto, a Meta quase certamente está usando suas imagens, vídeos e postagens para treinar seus algoritmos de IA.

Serviços como o Adobe podem acessar e usar seu trabalho para treinar seus algoritmos

Em janeiro de 2023, a Adobe foi criticada por uma atualização de seus T&Cs. A linguagem parecia sugerir que a Adobe poderia usar imagens carregadas em seus serviços em nuvem por fotógrafos para treinar seus algoritmos de IA.

A redação específica era a seguinte:

“A Adobe pode analisar seu conteúdo usando técnicas como aprendizado de máquina (por exemplo, para reconhecimento de padrões) para desenvolver e melhorar nossos produtos e serviços.”

Para piorar a situação, a Adobe estava automaticamente permitindo que os usuários entrassem nesse sistema de análise de conteúdo, o que significa que eles precisavam desligá-lo manualmente nas configurações de sua conta. Compreensivelmente, os criativos não responderam com muita gentileza e a Adobe acendeu as chamas ao não responder inicialmente às críticas.

Semanas depois, a Adobe afirmou que nenhum dado do cliente está sendo usado para treinar suas ferramentas generativas de IA. A empresa chamou o incidente de alerta e prometeu esclarecer qualquer confusão, tornando o texto de sua política mais específico.

De qualquer maneira, o fato é que, se Adobe quer usar dados de clientes para treinar seus sistemas de IA, não há nada que alguém possa fazer sobre isso - além de boicotar. Ao mesmo tempo, a Adobe está obtendo seus dados para ferramentas como o Generative Fill de algum lugar, então está usando o trabalho dos artistas, de uma forma ou de outra.

As empresas de tecnologia têm acesso quase ilimitado aos seus dados... por agora

Do jeito que as coisas estão, gigantes da tecnologia como Google e Meta têm acesso quase ilimitado aos dados dos criativos. O escrutínio sobre o manuseio dos dados do usuário é quase tão antigo quanto a Internet, mas os regulamentos de privacidade ainda estão se atualizando.

A União Europeia demorou até 2018 para implementar a sua Diretrizes de privacidade do GDPR e fizeram pouco para proteger os dados do usuário.

A IA generativa é um novo campo minado, com quase nenhuma regulamentação em vigor para restringir as ações das empresas de tecnologia nesse espaço. Por enquanto, empresas como Google e OpenAI podem fazer quase tudo o que quiserem com nossos dados, e isso não vai mudar tão cedo.

Em última análise, serão necessárias ações judiciais e regulamentos para proteger os artistas da IA

Até que a IA generativa e seu acesso aos dados do usuário sejam regulamentados, os criativos são quase impotentes para interromper a tecnologia. O cenário mais provável seria mudanças nas leis de direitos autorais ou, potencialmente, novas proteções de dados relacionadas à propriedade criativa. Em ambos os casos, levará muito tempo para ver quaisquer novos regulamentos introduzidos e, em seguida, aplicados.

O lado positivo para os criativos é que os processos contra a IA generativa estão se acumulando rapidamente e isso pode acelerar a resposta legal. A má notícia é que algumas das empresas de tecnologia envolvidas têm os fundos legais para arrastar esses casos pelos caminhos mais demorados do devido processo legal.

Enquanto isso, as questões éticas que pairam sobre a geração de arte com IA permanecerão.