.

Na quinta-feira, o Departamento de Estado dos EUA emitiu uma “Declaração Política sobre o Uso Militar Responsável de Inteligência Artificial e Autonomia”, pedindo a implantação ética e responsável de IA em operações militares entre as nações que as desenvolvem. O documento estabelece 12 melhores práticas para o desenvolvimento de capacidades militares de IA e enfatiza a responsabilidade humana.
A declaração coincide com a participação dos EUA em uma cúpula internacional sobre o uso responsável de IA militar em Haia, Holanda. A Reuters chamou a conferência de “a primeira desse tipo”. Na cúpula, a subsecretária de Estado para Controle de Armas dos EUA, Bonnie Jenkins, disse: “Convidamos todos os estados a se juntarem a nós na implementação de normas internacionais, no que se refere ao desenvolvimento militar e uso de IA” e armas autônomas.
Em um preâmbulo, a declaração dos EUA descreve que um número crescente de países está desenvolvendo capacidades militares de IA que podem incluir o uso de sistemas autônomos. Essa tendência levantou preocupações sobre os riscos potenciais do uso de tais tecnologias, especialmente quando se trata de cumprir o direito humanitário internacional.
O uso militar da IA pode e deve ser ético, responsável e aumentar a segurança internacional. O uso de IA em conflitos armados deve estar de acordo com o direito humanitário internacional aplicável, incluindo seus princípios fundamentais. O uso militar de recursos de IA precisa ser responsável, inclusive por meio desse uso durante operações militares dentro de uma cadeia humana responsável de comando e controle. Uma abordagem baseada em princípios para o uso militar da IA deve incluir uma consideração cuidadosa dos riscos e benefícios, e também deve minimizar o viés e os acidentes não intencionais. Os Estados devem tomar medidas apropriadas para garantir o desenvolvimento responsável, implantação e uso de suas capacidades militares de IA, incluindo aquelas que permitem sistemas autônomos.
As 12 melhores práticas listadas no documento abordam segurança de armas nucleares, projeto de sistema responsável, treinamento de pessoal e metodologias de auditoria para capacidades militares de IA. O documento também destaca a necessidade de minimizar o viés e os acidentes não intencionais e a importância dos testes para garantir a segurança e a eficácia das capacidades militares de IA.
O documento contém alguns exemplos notáveis de como manter humanos responsáveis na cadeia de comando quando se trata de sistemas autônomos, especialmente no que diz respeito a armas nucleares: .”
Ele também cobriu o comportamento não intencional da IA em sistemas militares, algo que se tornou uma preocupação recentemente com os sistemas de aprendizado profundo do consumidor: “Os Estados devem projetar e projetar recursos militares de IA para que possuam a capacidade de detectar e evitar consequências não intencionais e a capacidade de desengatar ou desativar sistemas implantados que demonstram comportamento não intencional.”
O documento não especifica exatamente que tipo de sistemas autônomos ou alimentados por IA são cobertos pela declaração, mas como não há uma definição universal de “inteligência artificial”, ele expõe sua compreensão do termo em uma nota de rodapé. O documento afirma: “Para os fins desta Declaração, a inteligência artificial pode ser entendida como a capacidade das máquinas de executar tarefas que, de outra forma, exigiriam inteligência humana – por exemplo, reconhecer padrões, aprender com a experiência, tirar conclusões, fazer previsões, ou agir – seja digitalmente ou como o software inteligente por trás de sistemas físicos autônomos.”
Também na quinta-feira, mais de 60 nações assinaram um “chamado à ação” endossando o uso militar responsável da IA. A Reuters relata que especialistas em direitos humanos e acadêmicos observaram que a declaração não é juridicamente vinculativa e “não aborda preocupações como drones guiados por IA, ‘robôs de abate’ que podem matar sem intervenção humana ou o risco de que uma IA possa escalar um conflito militar. .”
O documento completo da declaração, criado sob a autoridade do Bureau of Arms Control, Verification e Compliance, está disponível no site do Departamento de Estado dos EUA.
.








