Ciência e Tecnologia

Gigantes da IA ​​prometem permitir sondagens externas de seus algoritmos, sob um novo pacto da Casa Branca

.

A Casa Branca fechou um acordo com os principais desenvolvedores de IA – incluindo Amazon, Google, Meta, Microsoft e OpenAI – que os compromete a tomar medidas para impedir que modelos prejudiciais de IA sejam lançados no mundo.

Sob o acordo, que a Casa Branca chama de “compromisso voluntário”, as empresas se comprometem a realizar testes internos e permitir testes externos de novos modelos de IA antes de serem divulgados publicamente. O teste procurará problemas, incluindo resultados tendenciosos ou discriminatórios, falhas de segurança cibernética e riscos de danos sociais mais amplos. As startups Anthropic e Inflection, ambas desenvolvedoras de notáveis ​​rivais do ChatGPT da OpenAI, também participaram do acordo.

“As empresas têm o dever de garantir que seus produtos sejam seguros antes de apresentá-los ao público, testando a segurança e a capacidade de seus sistemas de IA”, disse o consultor especial da Casa Branca para IA, Ben Buchanan, a repórteres em uma entrevista ontem. Os riscos que as empresas foram solicitadas a observar incluem violações de privacidade e até possíveis contribuições para ameaças biológicas. As empresas também se comprometeram a relatar publicamente as limitações de seus sistemas e os riscos sociais e de segurança que eles poderiam representar.

O acordo também diz que as empresas desenvolverão sistemas de marcas d’água que facilitam a identificação de áudio e imagens geradas pela IA. A OpenAI já adiciona marcas d’água às imagens produzidas por seu gerador de imagens Dall-E, e o Google disse que está desenvolvendo tecnologia semelhante para imagens geradas por IA. Ajudar as pessoas a discernir o que é real e o que é falso é um problema crescente, pois as campanhas políticas parecem estar se voltando para a IA generativa antes das eleições nos EUA em 2024.

Avanços recentes em sistemas generativos de IA que podem criar texto ou imagens desencadearam uma renovada corrida armamentista de IA entre empresas que adaptam a tecnologia para tarefas como pesquisa na web e redação de cartas de recomendação. Mas os novos algoritmos também despertaram uma preocupação renovada sobre a IA reforçar sistemas sociais opressivos como sexismo ou racismo, aumentar a desinformação eleitoral ou se tornar ferramentas para crimes cibernéticos. Como resultado, reguladores e legisladores em muitas partes do mundo – incluindo Washington, DC – aumentaram os pedidos de nova regulamentação, incluindo requisitos para avaliar a IA antes da implantação.

Não está claro o quanto o acordo mudará a maneira como as principais empresas de IA operam. A crescente conscientização sobre as possíveis desvantagens da tecnologia tornou comum que as empresas de tecnologia contratem pessoas para trabalhar na política e nos testes de IA. O Google tem equipes que testam seus sistemas e divulga algumas informações, como os casos de uso pretendidos e considerações éticas para determinados modelos de IA. A Meta e a OpenAI às vezes convidam especialistas externos para tentar quebrar seus modelos em uma abordagem chamada red-teaming.

“Guiados pelos princípios duradouros de segurança, proteção e confiança, os compromissos voluntários abordam os riscos apresentados por modelos avançados de IA e promovem a adoção de práticas específicas – como testes de equipe vermelha e publicação de relatórios de transparência – que impulsionarão todo o ecossistema”, disse o presidente da Microsoft, Brad Smith, em uma postagem no blog.

Os riscos sociais potenciais que o acordo obriga as empresas a observar não incluem a pegada de carbono dos modelos de IA de treinamento, uma preocupação que agora é comumente citada em pesquisas sobre o impacto dos sistemas de IA. A criação de um sistema como o ChatGPT pode exigir milhares de processadores de computador de alta potência, funcionando por longos períodos de tempo.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo