News

Google e Microsoft fazem parceria com OpenAI para formar grupo de vigilância de segurança de IA

.

ai-gettyimages-1373071138

Kanok Sulaiman/Getty Images

Alguns dos maiores nomes da tecnologia estão se unindo para ajudar a manter a segurança da IA. Os gigantes da tecnologia Google e Microsoft estão fazendo parceria com OpenAI e Anthropic para garantir que a tecnologia de IA progrida de maneira “segura e responsável”.

Essa parceria ocorre após uma reunião na Casa Branca na semana passada com as mesmas empresas, além da Amazon e Meta, para discutir o desenvolvimento seguro e transparente da futura IA.

Também: A IA generativa logo se tornará popular, dizem 9 em cada 10 líderes de TI

O grupo de vigilância, chamado Frontier Model Forum, observou que, embora alguns governos de todo o mundo estejam tomando medidas para manter a segurança da IA, essas medidas não são suficientes. Em vez disso, cabe às empresas de tecnologia.

Em uma postagem no blog do site do Google, o fórum listou quatro objetivos principais:

  • Melhorando a pesquisa de segurança de IA para minimizar riscos futuros
  • Identificar as melhores práticas para o desenvolvimento responsável e implantação de modelos futuros
  • Trabalhar com formuladores de políticas, acadêmicos e outros para compartilhar conhecimento sobre os riscos de segurança da IA
  • Apoiando o desenvolvimento de usos de IA na solução dos maiores problemas da humanidade, como mudanças climáticas e detecção de câncer

Um representante da OpenAI acrescentou que, embora o fórum funcione com os formuladores de políticas, eles não se envolveriam com o lobby do governo.

A associação ao fórum está aberta a qualquer empresa que atenda a três critérios: desenvolver e implantar modelos de fronteira, demonstrar um forte compromisso com a segurança de modelos de fronteira e vontade de participar de iniciativas conjuntas com outros membros. O que é um “modelo de fronteira?” O fórum define isso como “quaisquer modelos de aprendizado de máquina em larga escala que vão além das capacidades atuais e possuem uma vasta gama de habilidades”.

Também: A IA tem o potencial de automatizar 40% do dia médio de trabalho

Embora a IA tenha potencial para mudar o mundo, diz o fórum, “são necessárias proteções apropriadas para mitigar os riscos”. Anna Makanju, vice-presidente de assuntos globais da OpenAI, emitiu uma declaração: “É vital que as empresas de IA – especialmente aquelas que trabalham nos modelos mais poderosos – se alinhem em um terreno comum. Este é um trabalho urgente. E este fórum está bem posicionado agir rapidamente para promover o estado de segurança da IA.”

O presidente da Microsoft, Brad Smith, ecoou esses sentimentos, dizendo que cabe às empresas que criam tecnologia de IA mantê-los seguros e sob controle humano.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo