technology

A alegria e o medo dos geradores de imagens de IA sem limites

Geradores de imagens como Stable Diffusion podem criar o que parecem ser fotografias reais ou ilustrações feitas à mão que descrevem praticamente qualquer coisa que uma pessoa possa imaginar. Isso é possível graças a algoritmos que aprendem a associar as propriedades de uma vasta coleção de imagens retiradas da web e bancos de dados de imagens com seus rótulos de texto associados. Os algoritmos aprendem a renderizar novas imagens para corresponder a um prompt de texto em um processo que envolve adicionar e remover ruído aleatório de uma imagem.

Como ferramentas como a difusão estável usam imagens extraídas da web, seu treinamento os dados geralmente incluem imagens pornográficas, tornando o software capaz de gerar novas imagens sexualmente explícitas. Outra preocupação é que essas ferramentas possam ser usadas para criar imagens que pareçam mostrar uma pessoa real fazendo algo comprometedor – algo que pode espalhar desinformação.

A qualidade das imagens geradas por IA disparou em no último ano e meio, começando com o anúncio de janeiro de 2021 de um sistema chamado DALL-E pela empresa de pesquisa de IA OpenAI. Ele popularizou o modelo de geração de imagens a partir de prompts de texto e foi seguido em abril de 2022 por um sucessor mais poderoso, DALL-E 2, agora disponível como serviço comercial.

Desde o início, A OpenAI restringiu quem pode acessar seus geradores de imagens, fornecendo acesso apenas por meio de um prompt que filtra o que pode ser solicitado. O mesmo vale para um serviço concorrente chamado Midjourney, lançado em julho deste ano, que ajudou a popularizar a arte feita por IA por ser amplamente acessível.

Stable Diffusion não é a primeira IA de código aberto gerador de arte. Não muito tempo depois que o DALL-E original foi lançado, um desenvolvedor construiu um clone chamado DALL-E Mini que foi disponibilizado para qualquer pessoa e rapidamente se tornou um fenômeno de criação de memes. DALL-E Mini, mais tarde renomeado como Craiyon, ainda inclui grades de proteção semelhantes às das versões oficiais do DALL-E. Clement Delangue, CEO da HuggingFace, uma empresa que hospeda muitos projetos de IA de código aberto, incluindo Stable Diffusion e Craiyon, diz que seria problemático que a tecnologia fosse controlada por apenas algumas grandes empresas.

“Se você olhar para o desenvolvimento a longo prazo da tecnologia, torná-la mais aberta, mais colaborativa e mais inclusiva, é realmente melhor do ponto de vista da segurança”, diz ele. A tecnologia fechada é mais difícil para especialistas externos e o público entenderem, diz ele, e é melhor se pessoas de fora puderem avaliar modelos para problemas como preconceitos de raça, gênero ou idade; além disso, outros não podem construir em cima de tecnologia fechada. No geral, ele diz, os benefícios da tecnologia de código aberto superam os riscos.

Delangue aponta que as empresas de mídia social podem usar a difusão estável para construir suas próprias ferramentas para detectar imagens geradas por IA usado para espalhar desinformação. Ele diz que os desenvolvedores também contribuíram com um sistema para adicionar marcas d’água invisíveis a imagens feitas usando Stable Diffusion para que sejam mais fáceis de rastrear e criaram uma ferramenta para encontrar imagens específicas nos dados de treinamento do modelo para que as problemáticas possam ser removidas.

Depois de se interessar por Unstable Diffusion, Simpson-Edin tornou-se moderador do Unstable Diffusion Discord. O servidor proíbe as pessoas de postar certos tipos de conteúdo, incluindo imagens que podem ser interpretadas como pornografia de menores. “Não podemos moderar o que as pessoas fazem em suas próprias máquinas, mas somos extremamente rigorosos com o que é publicado”, diz ela. No curto prazo, conter os efeitos disruptivos da criação de arte de IA pode depender mais dos humanos do que das máquinas.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo