.
Os humanos sempre tomarão a decisão final sobre se os robôs armados podem atirar, de acordo com um comunicado do Departamento de Defesa dos EUA. O seu esclarecimento surge no meio de receios sobre um novo sistema avançado de mira, conhecido como ATLAS, que utilizará inteligência artificial em veículos de combate para atingir e executar ameaças. Embora o público possa sentir-se desconfortável com os chamados “robôs assassinos”, o conceito não é nada novo – robôs “SWORDS” com metralhadoras foram implantados no Iraque já em 2007.
Nosso relacionamento com robôs militares é ainda mais antigo. Isso porque quando as pessoas dizem “robô”, podem se referir a qualquer tecnologia com alguma forma de elemento “autônomo” que lhe permita realizar uma tarefa sem a necessidade de intervenção humana direta.
Essas tecnologias existem há muito tempo. Durante a Segunda Guerra Mundial, o fusível de proximidade foi desenvolvido para explodir projéteis de artilharia a uma distância predeterminada do alvo. Isso tornou os projéteis muito mais eficazes do que seriam de outra forma, aumentando a tomada de decisão humana e, em alguns casos, tirando o ser humano completamente do circuito.
Portanto, a questão não é tanto se devemos utilizar sistemas de armas autónomos em batalha – já os utilizamos e eles assumem muitas formas. Em vez disso, deveríamos concentrar-nos na forma como os utilizamos, por que os utilizamos e que forma – se houver – a intervenção humana deve assumir.

Arte Zef/Shutterstock
O nascimento da cibernética
A minha investigação explora a filosofia das relações homem-máquina, com especial enfoque na ética militar e na forma como distinguimos entre humanos e máquinas. Durante a Segunda Guerra Mundial, o matemático Norbert Wiener lançou as bases da cibernética – o estudo da interface entre humanos, animais e máquinas – no seu trabalho sobre o controlo do fogo antiaéreo. Ao estudar os desvios entre o movimento previsto de uma aeronave e o seu movimento real, Wiener e o seu colega Julian Bigelow criaram o conceito de “ciclo de feedback”, onde os desvios poderiam ser realimentados no sistema para corrigir futuras previsões.
A teoria de Wiener foi, portanto, muito além do mero aumento, pois a tecnologia cibernética poderia ser usada para antecipar decisões humanas – removendo o ser humano falível do circuito, a fim de tomar decisões melhores e mais rápidas e tornar os sistemas de armas mais eficazes.
Nos anos que se seguiram à Segunda Guerra Mundial, o computador surgiu para acompanhar a teoria cibernética e formar um pilar central do pensamento militar, desde as “bombas inteligentes” guiadas por laser da era do Vietname até aos mísseis de cruzeiro e aos drones Reaper.
Não é mais suficiente apenas aumentar o guerreiro humano como acontecia nos primeiros dias. A próxima fase é remover completamente o ser humano – “maximizando” os resultados militares e minimizando ao mesmo tempo o custo político associado à perda de vidas aliadas. Isto levou ao uso generalizado de drones militares pelos EUA e seus aliados. Embora estas missões sejam altamente controversas, em termos políticos provaram ser de longe preferíveis ao clamor público causado pelas mortes militares.

Alex LMX/Shutterstock
A máquina humana
Uma das questões mais controversas relacionadas à guerra com drones é o papel do piloto ou “operador” do drone. Como todo o pessoal, estes operadores são obrigados pelos seus empregadores a “fazer um bom trabalho”. No entanto, os termos do sucesso estão longe de ser claros. Como observa a filósofa e crítica cultural Laurie Calhoun:
O negócio da UCAV [drone] operadores é matar.
Desta forma, a sua tarefa não é tanto tomar uma decisão humana, mas sim realizar o trabalho para o qual foram contratados. Se o computador lhes disser para matar, há realmente alguma razão para que não o façam?
Um argumento semelhante pode ser apresentado em relação ao soldado moderno. Da navegação GPS aos uplinks de vídeo, os soldados carregam vários dispositivos que os conectam a uma vasta rede que os monitora e controla a cada passo.
Isso leva a um enigma ético. Se o objectivo do soldado é seguir as ordens à risca – com câmaras utilizadas para garantir o cumprimento – então porque é que nos preocupamos com soldados humanos? Afinal, as máquinas são muito mais eficientes que os seres humanos e não sofrem de fadiga e stress da mesma forma que um ser humano. Se se espera que os soldados se comportem de maneira programática e robótica, então qual é o sentido de derramar sangue aliado desnecessário?
A resposta, aqui, é que o ser humano serve como um álibi ou forma de “cobertura ética” para o que é, na realidade, um ato robótico quase totalmente mecânico. Tal como o trabalho do operador do drone é supervisionar o drone controlado por computador, o papel do ser humano no novo sistema ATLAS do Departamento de Defesa é meramente agir como cobertura ética no caso de algo correr mal.
Embora os drones Predator e Reaper possam estar na vanguarda da imaginação pública sobre a autonomia militar e os “robôs assassinos”, estas inovações em si não são novidade. São apenas os mais recentes de uma longa série de desenvolvimentos que remontam a muitas décadas.
Embora possa confortar alguns leitores imaginar que a autonomia das máquinas estará sempre subordinada à tomada de decisões humanas, isto realmente não entende o essencial. Os sistemas autónomos estão há muito incorporados nas forças armadas e devemos preparar-nos para as consequências.
.