.
O ChatGPT está animado novas esperanças sobre o potencial da inteligência artificial – mas também novos medos. Hoje, a Casa Branca juntou-se ao coro de preocupação, anunciando que apoiará um exercício de hackers em massa na conferência de segurança Defcon neste verão para investigar sistemas de IA generativos de empresas como o Google.
O Escritório de Política de Ciência e Tecnologia da Casa Branca também disse que US$ 140 milhões serão desviados para o lançamento de sete novos Institutos Nacionais de Pesquisa em IA focados no desenvolvimento de IA ética e transformadora para o bem público, elevando o número total para 25 em todo o país.
O anúncio veio horas antes de uma reunião sobre as oportunidades e riscos apresentados pela IA entre a vice-presidente Kamala Harris e executivos do Google e da Microsoft, além das startups Anthropic e OpenAI, que criaram o ChatGPT.
A intervenção de IA da Casa Branca ocorre quando o apetite por regulamentar a tecnologia está crescendo em todo o mundo, alimentado pelo hype e pelo investimento provocado pelo ChatGPT. No parlamento da União Europeia, os legisladores estão negociando as atualizações finais de uma lei abrangente de IA que restringirá e até banirá alguns usos de IA, incluindo a adição de cobertura de IA generativa. Os legisladores brasileiros também estão considerando a regulamentação voltada para a proteção dos direitos humanos na era da IA. O projeto de regulamentação de IA generativa foi anunciado pelo governo da China no mês passado.
Em Washington, DC, na semana passada, o senador democrata Michael Bennett apresentou um projeto de lei que criaria uma força-tarefa de IA focada na proteção da privacidade e dos direitos civis dos cidadãos. Também na semana passada, quatro agências reguladoras dos EUA, incluindo a Comissão Federal de Comércio e o Departamento de Justiça, se comprometeram a usar as leis existentes para proteger os direitos dos cidadãos americanos na era da IA. Nesta semana, o gabinete do senador democrata Ron Wyden confirmou planos para tentar novamente aprovar uma lei chamada Algorithmic Accountability Act, que exigiria que as empresas avaliassem seus algoritmos e divulgassem quando um sistema automatizado estivesse em uso.
Arati Prabhakar, diretor do Gabinete de Política Científica e Tecnológica da Casa Branca, disse em março em um evento organizado pela Axios que o escrutínio governamental da IA era necessário para que a tecnologia fosse benéfica. “Se vamos aproveitar essas oportunidades, temos que começar lutando contra os riscos”, disse Prabhakar.
O exercício de hacking apoiado pela Casa Branca, projetado para expor fraquezas em sistemas de IA generativos, acontecerá neste verão na conferência de segurança Defcon. Milhares de participantes, incluindo hackers e especialistas em políticas, serão convidados a explorar como modelos generativos de empresas como Google, Nvidia e Stability AI se alinham com a Declaração de Direitos de IA do governo Biden anunciada em 2022 e uma estrutura de gerenciamento de risco do Instituto Nacional de Padrões e Tecnologia lançada no início deste ano.
Os pontos serão concedidos no formato “Capture the Flag” para incentivar os participantes a testar uma ampla gama de bugs ou comportamento desagradável dos sistemas de IA. O evento será realizado em parceria com a Microsoft, a organização sem fins lucrativos SeedAI, o AI Vulnerability Database e a Humane Intelligence, uma organização sem fins lucrativos criada pelo cientista social e de dados Rumman Chowdhury. Anteriormente, ela liderou um grupo no Twitter trabalhando em ética e aprendizado de máquina e organizou uma recompensa por viés que revelou preconceito no corte automático de fotos da rede social.
.