technology

OpenAI está pronta para vender DALL-E para seu primeiro milhão de clientes

OpenAI agora venderá seu programa de criação de imagens DALL-E 2 para o milhão de pessoas em sua lista de espera.

Cerca de 100.000 pessoas jogaram com DALL-E 2 desde seu lançamento apenas para convidados em abril. Hoje, a empresa com sede em São Francisco está abrindo as portas para 10 vezes mais do que transforma a IA em um serviço pago.

“Vimos muito mais interesse do que havíamos previsto, muito maior do que pelo GPT-3”, diz Peter Welinder, vice-presidente de produtos e parcerias da OpenAI.

Os clientes pagantes agora poderão usar as imagens que criam com o DALL-E em projetos comerciais, como ilustrações em livros infantis, arte conceitual para jogos e filmes e folhetos de marketing. Mas o lançamento do produto também será o maior teste até agora para a abordagem preferida da empresa para lançar sua poderosa IA, que é lançá-la aos clientes em etapas e resolver os problemas à medida que surgem.

Uma assinatura beta do DALL-E não vai quebrar o banco: $ 15 compra 115 créditos, e um crédito permite que você envie um prompt de texto para a IA, que retorna quatro imagens por vez. Em outras palavras, são US$ 15 por 460 imagens. Além disso, os usuários recebem 50 créditos grátis no primeiro mês e 15 créditos grátis por mês depois disso. Ainda assim, com os usuários normalmente gerando dezenas de imagens ao mesmo tempo e mantendo apenas as melhores, os usuários avançados podem em breve queimar essa cota.

No período que antecedeu este lançamento, o OpenAI foi trabalhando com os primeiros usuários para solucionar problemas da ferramenta. A primeira onda de usuários produziu um fluxo constante de imagens surreais e impressionantes: mash-ups de animais fofos, fotos que imitam o estilo de fotógrafos reais com uma precisão assustadora, quadros de humor para restaurantes e designs de tênis. Isso permitiu que a OpenAI explorasse os pontos fortes e fracos de sua ferramenta. “Eles nos deram um feedback muito bom”, diz Joanne Jang, gerente de produto da OpenAI.

A OpenAI já tomou medidas para controlar que tipo de imagens os usuários podem produzir. Por exemplo, as pessoas não podem gerar imagens que mostrem pessoas conhecidas. Em preparação para este lançamento comercial, o OpenAI abordou outro problema sério que os primeiros usuários sinalizaram. A versão do DALL-E lançada em abril muitas vezes produzia imagens que refletiam claramente preconceito de gênero e raça, como imagens de CEOs e bombeiros que eram todos homens brancos e professores e enfermeiras que eram todos mulheres brancas.

Em 18 de julho, a OpenAI anunciou uma correção. Quando os usuários pedem ao DALL-E 2 para gerar uma imagem que inclua um grupo de pessoas, a IA agora se baseia em um conjunto de amostras que a OpenAI afirma ser mais representativa da diversidade global. De acordo com seus próprios testes, a OpenAI diz que os usuários eram 12 vezes mais propensos a relatar que a saída do DALL-E 2 incluía pessoas de diversas origens.

É uma correção necessária, mas superficial. O OpenAI aborda muitos dos problemas que seus usuários sinalizam filtrando o que as pessoas podem pedir ou censurando o que o modelo subjacente produz. Mas não está corrigindo problemas no modelo em si ou nos dados em que é treinado. Essa abordagem permite que o OpenAI faça correções rápidas. Mas, para alguns, equivale a colocar um band-aid.

“A questão dos preconceitos sociais nos algoritmos é enorme”, diz Judy Wajcman, da London School of Economics, que também estuda gênero em ciência de dados e IA no Turing Institute. “Muita energia é gasta em correções técnicas, e eu louvo todos esses esforços, mas eles não são soluções de longo prazo para o problema.”

OpenAI diz que seu trabalho abordando o preconceito racial e de gênero de DALL-E 2 deu a confiança necessária para prosseguir com o lançamento completo. Não será a palavra final, no entanto. O viés na IA é um problema pernicioso e intratável, e a empresa terá que continuar seu jogo de bater na toupeira à medida que novos exemplos surgirem. A OpenAI diz que pausará o lançamento sempre que o produto precisar de ajustes.

É um ato de equilíbrio, diz Welinder. Às vezes, os ajustes podem restringir o que os usuários criam de maneiras inesperadas. Por exemplo, quando o OpenAI lançou sua correção para preconceito de gênero, alguns usuários reclamaram que agora estavam recebendo muitos Super Marios femininos. Esse tipo de caso é difícil de prever, diz Welinder: “Ver o que as pessoas estavam tentando criar a partir dele nos permite ajustar e calibrar.”

Mas monitorar centenas de milhões de imagens produzidas por um milhão ou mais de usuários será um grande empreendimento. Welinder não dirá que muitos moderadores humanos serão necessários, mas eles serão funcionários internos, diz ele. A empresa adota uma abordagem híbrida de moderação, misturando julgamento humano com inspeção automatizada. Welinder diz que a composição da equipe pode ser adaptada conforme necessário, adicionando mais moderadores ou ajustando o equilíbrio entre a intervenção humana e da máquina.

Em maio, o Google exibiu sua própria IA para criação de imagens, chamada Imagen. Ao contrário do OpenAI, o Google falou muito pouco sobre seus planos para a tecnologia. “Ainda não temos nada de novo para compartilhar no Imagen”, diz o porta-voz do Google, Brian Gabriel.

Quando o OpenAI foi fundado em 2015, ele se apresentava como um laboratório de pesquisa puro, com um crença na inteligência geral artificial e um compromisso de garantir que a tecnologia beneficiaria a humanidade – se alguma vez chegasse. Mas nos últimos anos, ela se transformou em uma empresa de produtos, oferecendo sua poderosa IA para clientes pagantes.

Ainda faz parte da mesma visão, diz Welinder: “Implantar nosso a tecnologia como produto e em escala é uma parte crítica de nossa missão. É importante repetir a utilidade e a segurança em torno da tecnologia desde o início, enquanto os riscos são menores.”

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo