.
Diplomatas de todo o mundo reuniram-se em Genebra na semana passada para a terceira Reunião Informal de Peritos das Nações Unidas sobre sistemas de armas autónomos letais (LAWS), vulgarmente apelidados de “robôs assassinos”.
O seu objectivo era fazer progressos na decisão de como, ou se, as LEIS deveriam ser regulamentadas ao abrigo do direito humanitário internacional.
Na reunião foram expressas diversas opiniões, desde o Paquistão a favor de uma proibição total, até ao Reino Unido a favor de não haver nova regulamentação para as LAWS, e várias posições intermédias.
Apesar da variedade de pontos de vista oferecidos, havia alguns pontos em comum.
É geralmente aceite que as LEIS são regidas pelo Direito Internacional Humanitário. Por exemplo, os robôs não podem ignorar os princípios da distinção entre civis e combatentes, ou da proporcionalidade na escala do ataque.
Os comandantes humanos também teriam responsabilidade de comando pelos seus robôs, tal como o fazem pelos seus homens e mulheres em serviço. Os robôs não podem ser legalmente utilizados para perpetrar genocídios, massacres e crimes de guerra.
Além disso, existem basicamente quatro posições assumidas pelas várias nações.
Posição 1: Confiar nas leis existentes
A posição do Reino Unido é que o direito humanitário internacional existente é suficiente para regular as tecnologias emergentes em inteligência artificial (IA) e robótica.
O argumento é que o direito humanitário internacional foi suficiente para regular os aviões e submarinos quando estes surgiram, e também irá lidar com muitos tipos de LEIS. Isso incluiria drones Predator com um “governador ético” – que é um software projetado para determinar se um ataque está em conformidade com as regras de engajamento especificadas e o direito humanitário internacional – ou navios de guerra autônomos anti-submarinos, como o Sea Hunter autônomo experimental da Marinha dos EUA. .
Posição 2: Banir o aprendizado de máquina
A delegação francesa disse que uma proibição seria “prematura” e que está aberta a aceitar a legalidade de uma LEIS “fora do circuito” com um “humano no circuito mais amplo”. Isso significa que a máquina pode selecionar alvos e disparar de forma autônoma, mas os humanos ainda definem as regras de combate.
No entanto, eles estavam abertos a regulamentar o aprendizado de máquina em LEIS “fora do circuito” (que ainda não existem). Assim, poderão apoiar uma futura proibição de qualquer IA de auto-aprendizagem – semelhante ao AlphaGo, que recentemente derrotou o campeão mundial humano do Go – no controlo directo de mísseis sem humanos no circuito mais amplo. A principal preocupação é que tais IAs possam ser imprevisíveis.
Posição 3: Banir ‘fora do circuito’ com um ‘humano no circuito mais amplo’
As delegações Holandesa e Suíça sugeriram que sistemas “fora do circuito” com um “humano no circuito mais amplo” poderiam cumprir o direito humanitário internacional, exibir um controlo humano suficientemente significativo e satisfazer os ditames da consciência pública.
O Reino Unido, a França e o Canadá manifestaram-se contra a proibição de tais sistemas.
Os defensores de tais armas robóticas afirmam que elas poderiam ser moralmente superiores aos soldados humanos porque seriam mais precisas, mais precisas e menos propensas a decisões erradas causadas por pânico ou vingança.
Os oponentes argumentam que podem errar a mira em ambientes desordenados ou ocluídos e são moralmente inaceitáveis.
Por exemplo, a Santa Sé e outras 13 nações pensam que é moralmente necessária uma intervenção humana em tempo real na decisão de tirar a vida, pelo que deve haver sempre um ser humano no circuito.
Esta posição exige exceções para armas “defensivas” já utilizadas, como o Phalanx Close-In Weapon System, e armas “off the loop” há muito aceitas, como minas navais, que existem desde a década de 1860.
Posição 4: Proibir armas ‘in the loop’
O Paquistão e a Palestina apoiarão qualquer medida suficientemente ampla para proibir os drones telepilotados. No entanto, a maioria das nações vê isto como algo que ultrapassa o âmbito do debate sobre as LAWS, uma vez que os seres humanos tomam as decisões de seleccionar e atacar os alvos, embora muitos concordem que os drones são um desastre para os direitos humanos.

DARPA
Definindo linhas em termos de Turing
Formalmente, uma IA é uma máquina de Turing que aplica mecanicamente regras a entradas simbólicas para gerar resultados.
A proibição de LAWS de aprendizado de máquina é uma proibição de IAs que atualizam seu próprio livro de regras para tomar decisões letais. A proibição de LEIS de “ciclo mais amplo” é uma proibição de IAs com um livro de regras escrito por humanos para tomar decisões letais. A proibição de LEIS “in the loop” é uma proibição de robôs pilotados por humanos serem usados como armas.
As opiniões também divergem sobre se o controle das decisões pela computação de Turing se qualifica como significativo ou humano.
Próximos passos
A reunião de Genebra foi uma reunião informal de peritos para clarificar definições e obter consenso sobre o que (se alguma coisa) poderia ser proibido ou regulamentado num tratado. Como tal, não houve votações sobre a redação do tratado.
O resultado mais provável é a criação de um painel de peritos governamentais para continuar as discussões. IA, robótica e LAWS ainda estão em desenvolvimento. Da forma como as coisas estão, o mundo está na posição 1: confiar no direito humanitário internacional existente.
Desde que um AlphaGo encarregado dos mísseis cumprisse princípios como a discriminação e a proporcionalidade, não seria claramente ilegal, apenas possivelmente ilegal.
.