.

Alguns dos maiores nomes da tecnologia estão se unindo para ajudar a manter a segurança da IA. Os gigantes da tecnologia Google e Microsoft estão fazendo parceria com OpenAI e Anthropic para garantir que a tecnologia de IA progrida de maneira “segura e responsável”.
Essa parceria ocorre após uma reunião na Casa Branca na semana passada com as mesmas empresas, além da Amazon e Meta, para discutir o desenvolvimento seguro e transparente da futura IA.
Também: A IA generativa logo se tornará popular, dizem 9 em cada 10 líderes de TI
O grupo de vigilância, chamado Frontier Model Forum, observou que, embora alguns governos de todo o mundo estejam tomando medidas para manter a segurança da IA, essas medidas não são suficientes. Em vez disso, cabe às empresas de tecnologia.
Em uma postagem no blog do site do Google, o fórum listou quatro objetivos principais:
- Melhorando a pesquisa de segurança de IA para minimizar riscos futuros
- Identificar as melhores práticas para o desenvolvimento responsável e implantação de modelos futuros
- Trabalhar com formuladores de políticas, acadêmicos e outros para compartilhar conhecimento sobre os riscos de segurança da IA
- Apoiando o desenvolvimento de usos de IA na solução dos maiores problemas da humanidade, como mudanças climáticas e detecção de câncer
Um representante da OpenAI acrescentou que, embora o fórum funcione com os formuladores de políticas, eles não se envolveriam com o lobby do governo.
A associação ao fórum está aberta a qualquer empresa que atenda a três critérios: desenvolver e implantar modelos de fronteira, demonstrar um forte compromisso com a segurança de modelos de fronteira e vontade de participar de iniciativas conjuntas com outros membros. O que é um “modelo de fronteira?” O fórum define isso como “quaisquer modelos de aprendizado de máquina em larga escala que vão além das capacidades atuais e possuem uma vasta gama de habilidades”.
Também: A IA tem o potencial de automatizar 40% do dia médio de trabalho
Embora a IA tenha potencial para mudar o mundo, diz o fórum, “são necessárias proteções apropriadas para mitigar os riscos”. Anna Makanju, vice-presidente de assuntos globais da OpenAI, emitiu uma declaração: “É vital que as empresas de IA – especialmente aquelas que trabalham nos modelos mais poderosos – se alinhem em um terreno comum. Este é um trabalho urgente. E este fórum está bem posicionado agir rapidamente para promover o estado de segurança da IA.”
O presidente da Microsoft, Brad Smith, ecoou esses sentimentos, dizendo que cabe às empresas que criam tecnologia de IA mantê-los seguros e sob controle humano.
.