Ciência e Tecnologia

Os criativos podem proteger seu trabalho da IA ​​generativa?

.

Ferramentas de IA generativas, como Midjourney e Stable Diffusion, estão produzindo visuais cada vez mais convincentes. No entanto, eles contam com vastos bancos de dados de trabalho de criativos para gerar seu conteúdo. Neste ponto, você deve estar se perguntando se existe uma maneira de proteger seu trabalho das ferramentas de IA e a resposta é: é complicado.


As ferramentas de IA generativa usam modelos de aprendizado de máquina treinados para executar ações usando grandes conjuntos de dados. Digamos que estamos falando de um gerador de imagem AI como o Midjourney. Nesse caso, os conjuntos de dados usados ​​para treinamento incluem bilhões de pares de imagem e texto, desde o trabalho de artistas lendários como Picasso até criativos profissionais e amadores.

Os geradores de arte de IA usam esses pares de texto de mídia para gerar conteúdo visual em resposta aos prompts de texto do usuário. Basicamente, eles usam o trabalho de artistas existentes e combinam padrões com pares de texto (postagens sociais, legendas, texto alternativo etc.) ou “uma cena neo-noir de um detetive bebendo uísque no centro de LA dos anos 1950”.

Por que tantos artistas estão chateados?

A maior reclamação dos criativos é que as ferramentas generativas de IA usam seu trabalho sem permissão. Eles também não estão simplesmente usando seu trabalho para treinar algoritmos.

A conversa de marketing sobre IA generativa sugere que essas ferramentas criam conteúdo exclusivo, mas não. O que eles realmente fazem é combinar dados de várias obras de arte e juntá-los para gerar algo que corresponda ao prompt do usuário.

O próprio termo geração de IA é enganoso. A replicação de IA seria mais precisa, e o truque com essas ferramentas é que elas replicam grandes volumes de obras de arte e as misturam.

Uma captura de tela das gerações de imagens Midjourney AI no Discord

As ferramentas generativas de IA são projetadas para substituir os criativos – e estão fazendo isso usando sua arte. E, como se isso não bastasse, a maioria das ferramentas de IA faz tudo isso sem pedir permissão, oferecer qualquer compensação ou mesmo creditar os criadores originais.

Infelizmente, a única maneira de impedir que ferramentas de IA acessem qualquer conteúdo seu é não publicar nada online. Pode parecer extremo, mas esta é a realidade. Claro, você pode usar o arquivo robots.txt em seu site para impedir que ferramentas de IA raspem seu site ou proteger suas imagens de IA optando por não receber conjuntos de dados de treinamento, mas esses métodos têm várias limitações.

Em primeiro lugar, os comandos no arquivo robots.txt são consultivos, o que significa que os sites não têm nenhuma obrigação legal de aderir. Em segundo lugar, você teria que impedir que uma empresa como o Google rastreie seu site, o que é basicamente um suicídio de SEO. E, por último, o arquivo robots.txt apenas lhe dá controle (limitado) sobre o acesso ao seu site, não faz nada para proteger o conteúdo que você publica em outro lugar: mídia social, serviços em nuvem e assim por diante.

Infelizmente para os criativos, o cenário vai piorar antes de melhorar.

A política de privacidade do Google pode significar que ele usa todo o conteúdo on-line para treinar seus algoritmos de IA

Em julho de 2023, o Google atualizou sua política de privacidade para dizer que usará conteúdo online para treinar seus sistemas de IA, incluindo Brad, Google Tradutor e outros. O Google usa a frase “fontes publicamente acessíveis”. Aqui está a citação que levantou alguns alarmes após a atualização:

“Por exemplo, podemos coletar informações que estão publicamente disponíveis on-line ou de outras fontes públicas para ajudar a treinar os modelos de IA do Google e criar produtos e recursos, como recursos de Google Translate, Bard e Cloud AI.” – Política de Privacidade do Google

Em outras palavras, o Google agora está dizendo que qualquer coisa que você publicar online está disponível. No mínimo, o Google facilita a comparação de atualizações de sua política de privacidade, destacando as alterações mais recentes:

Uma comparação mostrando as últimas mudanças na política de privacidade do Google

Como você pode ver, as mudanças na redação são bastante sutis, mas as implicações são significativas. Anteriormente, as principais funções dos modelos de idioma do Google eram interpretar as consultas de pesquisa e traduzir o texto para outros idiomas.

Agora, a empresa diz que pode usar todas as fontes acessíveis ao público para treinar seu conjunto completo de modelos de IA. Isso inclui seu sistema generativo de IA, Bard, e se expande além dos modelos de linguagem para incluir todas as ferramentas/recursos de IA do Google – o exemplo mais óbvio é a geração de imagens.

As redes sociais podem usar qualquer conteúdo que você publicar em suas plataformas

Meta também tem acesso irrestrito a tudo publicado no Facebook, Instagram e Threads. Esta é uma prática padrão para plataformas sociais se você ler os T&Cs. Assim que você carrega algo em uma rede social, eles têm o direito de usá-lo e reutilizá-lo da maneira que desejarem.

Muitos usuários sociais encontraram empresas usando suas imagens em anúncios sem permissão, incluindo criativos. Infelizmente, se essa empresa for a rede social para a qual você carregou a imagem, a empresa controladora da rede ou outra marca pertencente à mesma empresa controladora, você está sem sorte.

Para a maioria das pessoas, as chances de uma plataforma como o Instagram usar uma de suas imagens para uma campanha publicitária são muito baixas. No entanto, a Meta quase certamente está usando suas imagens, vídeos e postagens para treinar seus algoritmos de IA.

Serviços como o Adobe podem acessar e usar seu trabalho para treinar seus algoritmos

Em janeiro de 2023, a Adobe foi criticada por uma atualização de seus T&Cs. A linguagem parecia sugerir que a Adobe poderia usar imagens carregadas em seus serviços em nuvem por fotógrafos para treinar seus algoritmos de IA.

A redação específica era a seguinte:

“A Adobe pode analisar seu conteúdo usando técnicas como aprendizado de máquina (por exemplo, para reconhecimento de padrões) para desenvolver e melhorar nossos produtos e serviços.”

Para piorar a situação, a Adobe estava automaticamente permitindo que os usuários entrassem nesse sistema de análise de conteúdo, o que significa que eles precisavam desligá-lo manualmente nas configurações de sua conta. Compreensivelmente, os criativos não responderam com muita gentileza e a Adobe acendeu as chamas por não responder inicialmente às críticas.

Semanas depois, a Adobe afirmou que nenhum dado do cliente está sendo usado para treinar suas ferramentas generativas de IA. A empresa chamou o incidente de alerta e prometeu esclarecer qualquer confusão, tornando o texto de sua política mais específico.

De qualquer forma, permanece o fato de que, se a Adobe quiser usar os dados do cliente para treinar seus sistemas de IA, não há nada que alguém possa fazer a respeito – além do boicote. Ao mesmo tempo, a Adobe está obtendo seus dados para ferramentas como o Generative Fill de algum lugar, então está usando o trabalho dos artistas, de uma forma ou de outra.

As empresas de tecnologia têm acesso quase ilimitado aos seus dados… por enquanto

Do jeito que as coisas estão, gigantes da tecnologia como Google e Meta têm acesso quase ilimitado aos dados dos criativos. O escrutínio sobre o manuseio dos dados do usuário é quase tão antigo quanto a Internet, mas os regulamentos de privacidade ainda estão se atualizando.

A União Europeia levou até 2018 para implementar suas diretrizes de privacidade GDPR e pouco fez para proteger os dados do usuário.

A IA generativa é um novo campo minado, com quase nenhuma regulamentação em vigor para restringir as ações das empresas de tecnologia nesse espaço. Por enquanto, empresas como Google e OpenAI podem fazer quase tudo o que quiserem com nossos dados, e isso não vai mudar tão cedo.

Em última análise, serão necessárias ações judiciais e regulamentos para proteger os artistas da IA

Até que a IA generativa e seu acesso aos dados do usuário sejam regulamentados, os criativos são quase impotentes para interromper a tecnologia. O cenário mais provável seria mudanças nas leis de direitos autorais ou, potencialmente, novas proteções de dados relacionadas à propriedade criativa. Em ambos os casos, levará muito tempo para ver quaisquer novos regulamentos introduzidos e, em seguida, aplicados.

O lado positivo para os criativos é que os processos contra a IA generativa estão se acumulando rapidamente e isso pode acelerar a resposta legal. A má notícia é que algumas das empresas de tecnologia envolvidas têm os fundos legais para arrastar esses casos pelos caminhos mais demorados do devido processo legal.

Enquanto isso, as questões éticas que pairam sobre a geração de arte com IA permanecerão.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo