.

Aurich Lawson | Imagens Getty
Na segunda-feira, o presidente Joe Biden emitiu uma ordem executiva sobre IA que descreve as primeiras regulamentações abrangentes do governo federal sobre sistemas generativos de IA. O pedido inclui mandatos de teste para modelos avançados de IA para garantir que eles não possam ser usados para criar armas, sugestões para marcar mídia gerada por IA e disposições que abordam privacidade e deslocamento de empregos.
Nos Estados Unidos, uma ordem executiva permite ao presidente administrar e operar o governo federal. Usando a sua autoridade para definir os termos dos contratos governamentais, Biden pretende influenciar os padrões de IA, estipulando que as agências federais só devem celebrar contratos com empresas que cumpram os regulamentos de IA recentemente delineados pelo governo. Esta abordagem utiliza o poder de compra do governo federal para impulsionar a conformidade com os padrões recentemente estabelecidos.
Até o momento desta publicação, na segunda-feira, a Casa Branca ainda não havia divulgado o texto completo da ordem executiva, mas a partir da ficha informativa de autoria da administração e por meio de relatórios sobre os rascunhos da ordem do Politico e do The New York Times, podemos transmitir uma imagem do seu conteúdo. Algumas partes do pedido refletem posições especificadas pela primeira vez nas diretrizes da “Declaração de Direitos da IA” de 2022 de Biden, que cobrimos em outubro passado.
Em meio aos temores de danos existenciais à IA que foram grandes notícias no início deste ano, a ordem executiva inclui um foco notável na segurança e proteção da IA. Pela primeira vez, os desenvolvedores de poderosos sistemas de IA que representam riscos para a segurança nacional, a estabilidade económica ou a saúde pública serão obrigados a notificar o governo federal ao treinar um modelo. Terão também de partilhar os resultados dos testes de segurança e outras informações críticas com o governo dos EUA, de acordo com a Lei de Produção de Defesa, antes de os tornarem públicos.
Além disso, o Instituto Nacional de Padrões e Tecnologia (NIST) e o Departamento de Segurança Interna desenvolverão e implementarão padrões para testes da “equipe vermelha”, com o objetivo de garantir que os sistemas de IA estejam seguros e protegidos antes da divulgação pública. A implementação desses esforços é provavelmente mais fácil de falar do que de fazer, porque o que constitui um “modelo de base” ou um “risco” pode estar sujeito a uma interpretação vaga.
A ordem também sugere, mas não exige, a marca d’água de fotos, vídeos e áudio produzidos por IA. Isto reflecte preocupações crescentes sobre o potencial de deepfakes e desinformação gerados pela IA, particularmente no contexto da próxima campanha presidencial de 2024. Para garantir comunicações precisas e livres da interferência da IA, a ficha técnica diz que as agências federais desenvolverão e usarão ferramentas para “tornar mais fácil para os americanos saberem que as comunicações que recebem de seu governo são autênticas – e servir de exemplo para o setor privado”. e governos em todo o mundo.”
De acordo com o pedido, várias agências são orientadas a estabelecer padrões de segurança claros para o uso de IA. Por exemplo, o Departamento de Saúde e Serviços Humanos tem a tarefa de criar padrões de segurança, enquanto o Departamento do Trabalho e o Conselho Económico Nacional devem estudar o impacto da IA no mercado de trabalho e a potencial deslocação de empregos. Embora a ordem em si não consiga evitar a perda de empregos devido aos avanços da IA, a administração parece estar a tomar as medidas iniciais para compreender e possivelmente mitigar o impacto socioeconómico da adopção da IA. De acordo com a ficha informativa, estes estudos visam informar futuras decisões políticas que possam oferecer uma rede de segurança para os trabalhadores em indústrias com maior probabilidade de serem afetadas pela IA.
.