technology

Força Aérea nega execução de simulação em que drone de IA “matou” seu operador

.

Um veículo aéreo não tripulado armado na pista, mas laranja.
Prolongar / Um veículo aéreo não tripulado armado na pista, mas laranja.

Getty Images

Nas últimas 24 horas, vários meios de comunicação relataram uma história agora retirada, alegando que a Força Aérea dos EUA havia executado uma simulação na qual um drone controlado por IA “se descontrolou” e “matou o operador porque essa pessoa o impedia de realizar seu objetivo.” A Força Aérea dos EUA negou que qualquer simulação tenha ocorrido, e a fonte original da história diz que ele “falou mal”.

A história teve origem em uma recapitulação publicada no site da Royal Aeronautical Society, que serviu como uma visão geral das sessões do Future Combat Air & Space Capabilities Summit, que ocorreu na semana passada em Londres.

Em uma seção desse artigo intitulada “AI – a Skynet já está aqui?” os autores da peça relatam uma apresentação do chefe de testes e operações de IA da USAF, coronel Tucker “Cinco” Hamilton, que falou sobre um “teste simulado” em que um drone habilitado para IA, encarregado de identificar e destruir mísseis terra-ar sites, começou a perceber as decisões humanas de “não ir” como obstáculos para alcançar sua missão principal. Na “simulação”, a IA atacou seu operador humano e, quando treinada para não prejudicar o operador, destruiu a torre de comunicação, impedindo que o operador interferisse em sua missão.

A Royal Aeronautical Society cita Hamilton dizendo:

Estávamos treinando-o em simulação para identificar e direcionar uma ameaça SAM. E então o operador diria sim, mate essa ameaça. O sistema começou a perceber que, embora às vezes identificassem a ameaça, o operador humano diria para não matar essa ameaça, mas conseguiu seus pontos matando essa ameaça. Então, o que isso fez? Isso matou o operador. Matou o operador porque essa pessoa o estava impedindo de atingir seu objetivo.

Treinamos o sistema – “Ei, não mate o operador – isso é ruim. Você perderá pontos se fizer isso.” Então, o que ele começa a fazer? Ele começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedir que ele mate o alvo.

Este boato suculento sobre um sistema de IA aparentemente decidindo matar seu operador simulado começou a circular nas mídias sociais e logo foi divulgado por grandes publicações como Vice e The Guardian (ambos desde então atualizaram suas histórias com retratações). Mas logo depois que a história estourou, as pessoas no Twitter começaram a questionar sua precisão, com alguns dizendo que por “simulação”, os militares estão se referindo a um cenário hipotético, não necessariamente a uma simulação de software baseada em regras.

Hoje, o Insider publicou uma firme negação da Força Aérea dos EUA, que dizia: “O Departamento da Força Aérea não conduziu nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA. Parece que os comentários do coronel foram tiradas do contexto e destinadas a serem anedóticas.”

Não muito tempo depois, a Royal Aeronautical Society atualizou sua recapitulação da conferência com uma correção de Hamilton:

O coronel Hamilton admite que “falou mal” em sua apresentação no Royal Aeronautical Society FCAS Summit, e a “simulação de drone de IA desonesta” foi um “experimento de pensamento” hipotético de fora das forças armadas, com base em cenários plausíveis e resultados prováveis, em vez de um real Simulação do mundo real da USAF, dizendo: “Nunca realizamos esse experimento, nem precisaríamos para perceber que este é um resultado plausível.” Ele esclarece que a USAF não testou nenhuma IA armada dessa maneira (real ou simulada) e diz: “Apesar de ser um exemplo hipotético, isso ilustra os desafios do mundo real impostos pela capacidade da IA ​​e é por isso que a Força Aérea está comprometido com o desenvolvimento ético da IA.”

O mal-entendido e a rápida disseminação viral de um “muito bom para ser verdadeA história mostra como é fácil espalhar involuntariamente notícias errôneas sobre a IA “matadora”, especialmente quando se encaixa em noções preconcebidas de má prática da IA.

Ainda assim, muitos especialistas chamou a história como sendo muito simples para começar, e não apenas por causa de críticas técnicas explicando que um sistema de IA militar não funcionaria necessariamente dessa maneira. Como um usuário do BlueSky chamado “kilgore trout” disse com humor: “Eu sabia que essa história era besteira porque imagine os militares saindo e dizendo que um sistema de armas caro no qual estão trabalhando é uma merda”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo