News

A inteligência artificial ficará ‘cada vez mais louca’ sem controles, alerta um dos principais fundadores de startups | Notícias de ciência e tecnologia

.

Grandes modelos de inteligência artificial ficarão “cada vez mais loucos” a menos que mais seja feito para controlar em quais informações eles são treinados, de acordo com o fundador de uma das principais start-ups de IA do Reino Unido.

Emad Mostaque, CEO da Stability AI, argumenta que continuar treinando grandes modelos de linguagem como o GPT4 da OpenAI e o LaMDA do Google no que é efetivamente toda a Internet está tornando-os muito imprevisíveis e potencialmente perigosos.

“Os próprios laboratórios dizem que isso pode representar uma ameaça existencial para a humanidade”, disse Mostaque.

Na terça-feira, o chefe da OpenAI, Sam Altman, disse ao Congresso dos Estados Unidos que o tecnologia poderia “dar muito errado” e pediu regulamentação.

Hoje, Sir Antony Seldon, diretor do Epsom College, disse a Sophy Ridge da Strong The One no domingo que a IA poderia ser pode ser “desagradável e perigoso”.

"Pintura do Castelo de Edimburgo" gerado pela ferramenta de inteligência artificial Stable Diffusion que converte texto em imagens
Imagem:
‘Pintura do Castelo de Edimburgo’ gerada pela ferramenta de inteligência artificial Stable Diffusion, cujo fundador adverte que nem todos os usuários da Internet serão capazes de distinguir entre imagens reais e de IA. Foto: difusão estável
uma imagem de "estampa de frutas em verde e laranja" gerado pela ferramenta de inteligência artificial Stable Diffusion, que converte texto em imagem.  Foto: difusão estável
Imagem:
Uma imagem de ‘impressão de frutas em verde e laranja’ gerada pela ferramenta de inteligência artificial Stable Diffusion, que converte texto em imagens. Foto: difusão estável

“Quando as pessoas que fazem [the models] dizer isso, provavelmente deveríamos ter uma discussão aberta sobre isso”, acrescentou Mostaque.

Mas desenvolvedores de IA como Stability AI podem não ter escolha em ter tal discussão. Muitos dos dados usados ​​para treinar seus poderosos produtos de IA de conversão de texto em imagem também foram “extraídos” da Internet.

Mais sobre Inteligência Artificial

Isso inclui milhões de imagens de direitos autorais que levaram a ações legais contra a empresa – bem como grandes questões sobre quem é o “proprietário” dos produtos que os sistemas de IA geradores de imagem ou texto criam.

Sua empresa colaborou no desenvolvimento do Stable Diffusion, um dos principais AIs de conversão de texto em imagem. A Stability AI acaba de lançar um novo modelo chamado Deep Floyd, que afirma ser a IA de geração de imagens mais avançada até agora.

uma imagem de um "coruja fofinha bebendo cerveja muito escura no bar em um estilo fotorrealista" criado pela IA.  Foto: DeepFloyd
Imagem:
Uma ‘foto de uma coruja felpuda bebendo cerveja muito escura’ criada por IA. Foto: DeepFloyd
"Uma divertida raposa peluda trabalhando como piloto em um estilo fotorrealista" criado por inteligência artificial que converte texto em imagem.  Foto: DeepFloyd
Imagem:
Uma imagem de estilo fotorrealista de uma ‘raposa peluda brincalhona trabalhando como piloto’ criada por inteligência artificial. Foto: DeepFloyd

Uma etapa necessária para tornar a IA segura, explicou Daria Bakshandaeva, pesquisadora sênior da Stability AI, era remover imagens ilegais, violentas e pornográficas dos dados de treinamento.

Se a IA vir imagens nocivas ou explícitas durante seu treinamento, ela poderá recriá-las em sua saída. Para evitar isso, os desenvolvedores removem essas imagens dos dados de treinamento, para que a IA não possa “imaginar” como elas seriam.

Mas ainda foram necessários dois bilhões de imagens de fontes online para treiná-lo. A Stability AI diz que está trabalhando ativamente em novos conjuntos de dados para treinar modelos de IA que respeitem os direitos das pessoas aos seus dados.

A Stability AI está sendo processada nos EUA pela agência de fotos Getty Images por usar 12 milhões de suas imagens como parte do conjunto de dados usado para treinar seu modelo. A Stability AI respondeu que as regras sobre “uso justo” das imagens significam que nenhum direito autoral foi infringido.

Mas a preocupação não é apenas sobre direitos autorais. Quantidades crescentes de dados disponíveis na web, sejam imagens, texto ou código de computador, estão sendo geradas pela IA.

“Se você olhar para a codificação, 50% de todo o código gerado agora é gerado por IA, o que é uma mudança incrível em pouco mais de um ano ou 18 meses”, disse Mostaque.

E as IAs geradoras de texto estão criando quantidades crescentes de conteúdo online, até mesmo reportagens.

Imagem de "Inglaterra vence copa do mundo de futebol masculino em 2026" gerado pela ferramenta de inteligência artificial Stable Diffusion, que converte texto em imagem, mostra que a ferramenta nem sempre acerta.  Foto: difusão estável
Imagem:
A imagem de ‘Inglaterra vence a copa do mundo de futebol masculino em 2026’ gerada pela ferramenta de inteligência artificial Stable Diffusion, que converte texto em imagem, mostra que a ferramenta nem sempre acerta. Foto: difusão estável

Use o navegador Chrome para um player de vídeo mais acessível

Sir Anthony Seldon destaca os benefícios e riscos da IA

A empresa norte-americana News Guard, que verifica o conteúdo on-line, encontrou recentemente 49 sites de “notícias falsas” gerados quase inteiramente por IA, sendo usados ​​para direcionar cliques para conteúdo publicitário.

“Continuamos realmente preocupados com a capacidade de um usuário médio da Internet encontrar informações e saber que são informações precisas”, disse Matt Skibinski, diretor-gerente da NewsGuard.

As IAs correm o risco de poluir a web com conteúdo deliberadamente enganoso e prejudicial ou apenas lixo. Não é que as pessoas não façam isso há anos, é só que agora as IAs podem acabar sendo treinadas em dados extraídos da web que outras IAs criaram.

Mais uma razão para pensar bem agora sobre quais dados usamos para treinar AIs ainda mais poderosas.

“Não os alimente com junk food”, disse Mostaque. “Podemos ter melhores modelos orgânicos ao ar livre agora. Caso contrário, eles ficarão cada vez mais loucos.”

Um bom lugar para começar, ele argumenta, é criar IAs treinadas em dados, sejam textos, imagens ou dados médicos, que sejam mais específicos para os usuários para os quais estão sendo feitos. No momento, a maioria das IAs é projetada e treinada na Califórnia.

“Acho que precisamos de nossos próprios conjuntos de dados ou nossos próprios modelos para refletir a diversidade da humanidade”, disse Mostaque.

“Acho que também será mais seguro. Acho que eles estarão mais alinhados com os valores humanos do que apenas ter um conjunto de dados muito limitado e um conjunto muito limitado de experiências que estão disponíveis apenas para as pessoas mais ricas do mundo.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo