.
Na semana passada, surgiram relatos de que as Forças de Defesa de Israel (IDF) estão a utilizar um sistema de inteligência artificial (IA) chamado Habsora (em hebraico para “O Evangelho”) para selecionar alvos na guerra contra o Hamas em Gaza. O sistema terá sido utilizado para encontrar mais alvos para bombardeamentos, para ligar locais a agentes do Hamas e para estimar antecipadamente o número provável de mortes de civis.
O que significa que sistemas de mira de IA como este sejam usados em conflitos? A minha investigação sobre as implicações sociais, políticas e éticas da utilização militar de sistemas remotos e autónomos mostra que a IA já está a alterar o carácter da guerra.
Os militares utilizam sistemas remotos e autónomos como “multiplicadores de força” para aumentar o impacto das suas tropas e proteger a vida dos seus soldados. Os sistemas de IA podem tornar os soldados mais eficientes e são suscetíveis de aumentar a velocidade e a letalidade da guerra – mesmo que os humanos se tornem menos visíveis no campo de batalha, reunindo informações e alvos à distância.
Quando os militares puderem matar à vontade, com pouco risco para os seus próprios soldados, prevalecerá o actual pensamento ético sobre a guerra? Ou será que a utilização crescente da IA também aumentará a desumanização dos adversários e a desconexão entre as guerras e as sociedades em cujos nomes elas são travadas?
IA estava em
A IA está a ter um impacto em todos os níveis da guerra, desde o apoio à “inteligência, vigilância e reconhecimento”, como o sistema Habsora das FDI, até aos “sistemas de armas letais autónomos” que podem escolher e atacar alvos sem intervenção humana.
Estes sistemas têm o potencial de remodelar o carácter da guerra, facilitando a entrada num conflito. Sendo sistemas complexos e distribuídos, também podem tornar mais difícil sinalizar as intenções de alguém – ou interpretar as de um adversário – no contexto de um conflito crescente.
Para este efeito, a IA pode contribuir para a desinformação ou a desinformação, criando e amplificando mal-entendidos perigosos em tempos de guerra.
Os sistemas de IA podem aumentar a tendência humana de confiar nas sugestões das máquinas (isto é destacado pelo sistema Habsora, nomeado após a infalível palavra de Deus), abrindo incerteza sobre até que ponto confiar em sistemas autónomos. Os limites de um sistema de IA que interage com outras tecnologias e com pessoas podem não ser claros, e pode não haver forma de saber quem ou o que foi o “autor” dos seus resultados, por mais objectivos e racionais que possam parecer.
Aprendizado de máquina de alta velocidade
Talvez uma das mudanças mais básicas e importantes que provavelmente veremos impulsionadas pela IA seja um aumento na velocidade da guerra. Isto pode mudar a forma como entendemos a dissuasão militar, que assume que os humanos são os principais intervenientes e fontes de inteligência e interação na guerra.
Os militares e soldados enquadram a sua tomada de decisões através do chamado “ciclo OODA” (para observar, orientar, decidir, agir). Um loop OODA mais rápido pode ajudá-lo a superar seu inimigo. O objectivo é evitar o abrandamento das decisões através de deliberação excessiva e, em vez disso, acompanhar o ritmo acelerado da guerra.
Assim, a utilização da IA é potencialmente justificada com base na capacidade de interpretar e sintetizar enormes quantidades de dados, processando-os e fornecendo resultados a taxas que ultrapassam em muito a cognição humana.
Mas onde está o espaço para a deliberação ética num ciclo OODA cada vez mais rápido e centrado em dados que acontece a uma distância segura da batalha?

Fátima Shbair/AP
O software de seleção de alvos de Israel é um exemplo desta aceleração. Um antigo chefe das FDI disse que os analistas de inteligência humana podem produzir 50 alvos de bombardeamento em Gaza todos os anos, mas o sistema Habsora pode produzir 100 alvos por dia, juntamente com recomendações em tempo real sobre quais atacar.
Como o sistema produz essas metas? Isso é feito por meio de raciocínio probabilístico oferecido por algoritmos de aprendizado de máquina.
Algoritmos de aprendizado de máquina aprendem por meio de dados. Eles aprendem buscando padrões em enormes pilhas de dados, e seu sucesso depende da qualidade e quantidade dos dados. Eles fazem recomendações baseadas em probabilidades.
As probabilidades são baseadas na correspondência de padrões. Se uma pessoa tiver semelhanças suficientes com outras pessoas rotuladas como combatentes inimigos, ela também poderá ser rotulada como combatente.
O problema da IA permitiu a segmentação à distância
Alguns afirmam que o aprendizado de máquina permite maior precisão na segmentação, o que torna mais fácil evitar ferir pessoas inocentes e usar uma quantidade proporcional de força. No entanto, a ideia de um direcionamento mais preciso dos ataques aéreos não teve sucesso no passado, como mostra o elevado número de vítimas civis declaradas e não declaradas resultantes da guerra global contra o terrorismo.
Além disso, a diferença entre um combatente e um civil raramente é evidente. Mesmo os humanos frequentemente não conseguem dizer quem é ou não um combatente.
A tecnologia não muda esta verdade fundamental. Muitas vezes, as categorias e conceitos sociais não são objectivos, mas são contestados ou específicos do tempo e do lugar. Mas a visão computacional juntamente com algoritmos são mais eficazes em ambientes previsíveis onde os conceitos são objetivos, razoavelmente estáveis e internamente consistentes.
A IA tornará a guerra pior?
Vivemos numa época de guerras injustas e ocupações militares, de violações flagrantes das regras de combate e de uma corrida armamentista incipiente face à rivalidade entre os EUA e a China. Neste contexto, a inclusão da IA na guerra pode acrescentar novas complexidades que exacerbam, em vez de prevenir, os danos.
Os sistemas de IA facilitam o anonimato dos intervenientes na guerra e podem tornar invisíveis a fonte da violência ou as decisões que a ela conduzem. Por sua vez, poderemos assistir a uma desconexão crescente entre militares, soldados e civis, e às guerras travadas em nome da nação que servem.
E à medida que a IA se torna mais comum na guerra, os militares desenvolverão contramedidas para a minar, criando um ciclo de crescente militarização.
E agora?
Poderemos controlar os sistemas de IA para evitar um futuro em que a guerra seja impulsionada pela crescente dependência da tecnologia sustentada por algoritmos de aprendizagem? Controlar o desenvolvimento da IA em qualquer área, especialmente através de leis e regulamentos, tem-se revelado difícil.
Muitos sugerem que precisamos de leis melhores para dar conta dos sistemas sustentados pela aprendizagem automática, mas mesmo isto não é simples. Algoritmos de aprendizado de máquina são difíceis de regular.
Leia mais: Militares dos EUA planejam liberar milhares de robôs de guerra autônomos nos próximos dois anos
As armas habilitadas para IA podem programar-se e atualizar-se, evitando os requisitos legais de certeza. A máxima da engenharia “o software nunca está pronto” implica que a lei poderá nunca acompanhar a velocidade da mudança tecnológica.
O acto quantitativo de estimar antecipadamente o número provável de mortes de civis, o que o sistema Habsora faz, não nos diz muito sobre as dimensões qualitativas da selecção de alvos. Sistemas como o Habsora isoladamente não podem realmente dizer-nos muito sobre se uma greve seria ética ou legal (isto é, se é proporcional, discriminatória e necessária, entre outras considerações).
A IA deve apoiar os ideais democráticos e não prejudicá-los. A confiança nos governos, nas instituições e nas forças armadas está a diminuir e precisa de ser restaurada se planearmos aplicar a IA numa série de práticas militares. Precisamos de implementar uma análise ética e política crítica para interrogar as tecnologias emergentes e os seus efeitos, para que qualquer forma de violência militar seja considerada o último recurso.
Até então, é melhor manter os algoritmos de aprendizado de máquina separados das práticas de segmentação. Infelizmente, os exércitos mundiais estão a caminhar na direcção oposta.
.