technology

‘Temos que agir rápido’: EUA buscam estabelecer regras para inteligência artificial | Inteligência Artificial (IA)

.

O governo dos EUA está dando seus primeiros passos para estabelecer regras para ferramentas de inteligência artificial, à medida que o frenesi sobre IA generativa e chatbots atingem um pico febril.

O departamento de comércio dos EUA anunciou na terça-feira que está solicitando comentários públicos sobre como criar medidas de responsabilidade para a IA, buscando ajuda sobre como aconselhar os formuladores de políticas dos EUA a abordar a tecnologia.

“Da mesma forma que as auditorias financeiras criaram confiança na precisão das demonstrações financeiras para as empresas, os mecanismos de responsabilidade da IA ​​podem ajudar a garantir que um sistema de IA seja confiável”, disse Alan Davidson, chefe da Administração Nacional de Telecomunicações e Informações (NTIA). , em entrevista coletiva na Universidade de Pittsburgh.

Davidson disse que a NTIA está buscando feedback do público, inclusive de pesquisadores, grupos da indústria e organizações de privacidade e direitos digitais sobre o desenvolvimento de auditorias e avaliações de ferramentas de IA criadas pela indústria privada. Ele também disse que a NTIA procura estabelecer barreiras que permitam ao governo determinar se os sistemas de IA funcionam da maneira que as empresas afirmam, se são seguros e eficazes, se têm resultados discriminatórios ou “refletem níveis inaceitáveis ​​de viés”, se eles espalham ou perpetuam a desinformação e se respeitam a privacidade dos indivíduos.

“Temos que nos mover rapidamente porque essas tecnologias de IA estão se movendo muito rápido em alguns aspectos”, disse Davidson. “Tivemos o luxo de passar um tempo com algumas dessas outras tecnologias… isso parece muito mais urgente.”

A administração Biden introduziu anteriormente um “guia” sobre o desenvolvimento de sistemas de IA na forma de uma “declaração de direitos” voluntária que envolve cinco princípios que as empresas devem considerar para seus produtos. Isso inclui privacidade de dados, proteções contra discriminação algorítmica e transparência sobre quando e como um sistema automatizado está sendo usado.

O Instituto Nacional de Padrões e Tecnologia também publicou uma estrutura de gerenciamento de risco de IA, proteções voluntárias que as empresas podem usar para tentar limitar o risco de danos ao público.

Além disso, disse Davidson, muitas agências federais estão analisando as maneiras pelas quais as regras atuais nos livros podem ser aplicadas à IA.

E os legisladores dos EUA apresentaram mais de 100 projetos de lei relacionados à IA em 2021, observou ele. “Essa é uma grande diferença em relação aos primeiros dias, digamos, da mídia social, da computação em nuvem ou mesmo da internet, quando as pessoas realmente não prestavam atenção”, disse Davidson.

Dito isso, o governo federal tem sido historicamente lento em responder às tecnologias que avançam rapidamente com regulamentações nacionais, principalmente em comparação com os países europeus. As empresas de tecnologia nos EUA, por exemplo, podem coletar e compartilhar dados de usuários relativamente livres de restrições federais. Isso permitiu que os corretores de dados, empresas que compram e vendem dados do usuário, prosperassem e tornou mais difícil para os consumidores manter suas informações privadas que compartilham com empresas de tecnologia fora do alcance de terceiros ou da aplicação da lei.

Até agora, os chatbots e outras ferramentas de IA foram desenvolvidos e divulgados publicamente sem restrições por qualquer regra federal ou estrutura regulatória. Isso permitiu a rápida adoção de ferramentas de IA como o ChatGPT por empresas de todos os setores, apesar das preocupações com privacidade, desinformação e falta de transparência sobre como os chatbots foram treinados.

pule a promoção do boletim informativo

Os reguladores europeus propuseram uma estrutura legal que categorizaria os sistemas de IA por risco: risco inaceitável, alto risco, risco limitado e risco mínimo. A aprovação da Lei de Inteligência Artificial de 2021 posicionaria a UE como líder global na regulamentação da IA, mas enfrentou algumas críticas recentes de empresas investidas na crescente indústria de chatbots.

A Microsoft, por exemplo, argumentou que, como os chatbots têm mais de um propósito e são usados ​​para atividades de baixo risco, eles não podem ser facilmente categorizados, embora possam e tenham realizado atividades consideradas de “alto risco”, como espalhar desinformação.

Davidson disse que é por isso que o governo precisa de informações do público para determinar como deve ser uma estrutura regulatória de IA responsável.

“Boas proteções implementadas com cuidado podem realmente promover a inovação”, disse ele. “Eles permitem que as pessoas saibam como é uma boa inovação, fornecem espaços seguros para inovar enquanto abordam as preocupações reais que temos sobre consequências prejudiciais.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo