technology

Grandes empresas de IA formam grupo para pesquisar e manter o controle da IA

.

logotipos de quatro empresas
Prolongar / As quatro empresas dizem que lançaram o Frontier Model Forum para garantir “o desenvolvimento seguro e responsável de modelos de IA de fronteira”.

Financial Times

Quatro das empresas de inteligência artificial mais avançadas do mundo formaram um grupo para pesquisar uma IA cada vez mais poderosa e estabelecer as melhores práticas para controlá-la, à medida que aumenta a ansiedade do público e o escrutínio regulatório sobre o impacto da tecnologia.

Na quarta-feira, Anthropic, Google, Microsoft e OpenAI lançaram o Frontier Model Forum, com o objetivo de “garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira”.

Nos últimos meses, as empresas americanas lançaram ferramentas de IA cada vez mais poderosas que produzem conteúdo original em forma de imagem, texto ou vídeo, baseando-se em um banco de material existente. Os desenvolvimentos levantaram preocupações sobre violação de direitos autorais, violações de privacidade e que a IA poderia substituir os humanos em uma série de empregos.

“As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano”, disse Brad Smith, vice-presidente e presidente da Microsoft. “Esta iniciativa é um passo vital para reunir o setor de tecnologia no avanço da IA ​​de forma responsável e enfrentar os desafios para que beneficie toda a humanidade.”

A adesão ao fórum é limitada apenas a um punhado de empresas que constroem “modelos de aprendizado de máquina em larga escala que excedem os recursos atualmente presentes nos modelos existentes mais avançados”, de acordo com seus fundadores.

Isso sugere que seu trabalho se concentrará nos riscos potenciais decorrentes de uma IA consideravelmente mais poderosa, em vez de responder a perguntas sobre direitos autorais, proteção de dados e privacidade que são pertinentes aos reguladores hoje.

A Comissão Federal de Comércio dos EUA lançou uma investigação sobre a OpenAI, analisando se a empresa se envolveu em práticas de privacidade e segurança de dados “injustas ou enganosas” ou prejudicou pessoas ao criar informações falsas sobre elas. O presidente Joe Biden indicou que seguirá com uma ação executiva para promover a “inovação responsável”.

Por sua vez, os chefes da IA ​​adotaram um tom tranquilizador, enfatizando que estão atentos aos perigos e comprometidos em mitigá-los. Na semana passada, executivos de todas as quatro empresas que lançaram o novo fórum se comprometeram com o “desenvolvimento seguro, protegido e transparente da tecnologia de IA” na Casa Branca.

Emily Bender, uma linguista computacional da Universidade de Washington que pesquisou extensivamente grandes modelos de linguagem, disse que as garantias das empresas eram “uma tentativa de evitar a regulamentação; para afirmar a capacidade de autorregulação, da qual sou muito cético.

Concentrar a atenção no medo de que “as máquinas ganhem vida e assumam o controle” foi uma distração dos “problemas reais que temos a ver com roubo de dados, vigilância e colocação de todos na economia gig”, disse ela.

“A regulamentação precisa vir externamente. Precisa ser promulgado pelo governo que representa o povo para restringir o que essas corporações podem fazer”, acrescentou.

O Frontier Model Forum terá como objetivo promover a pesquisa de segurança e fornecer um canal de comunicação entre a indústria e os formuladores de políticas.

Grupos semelhantes foram estabelecidos antes. A Partnership on AI, da qual o Google e a Microsoft também foram membros fundadores, foi formada em 2016 com membros da sociedade civil, da academia e da indústria, com a missão de promover o uso responsável da IA.

© 2023 The Financial Times Ltd. Todos os direitos reservados Não deve ser redistribuído, copiado ou modificado de qualquer forma.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo