.
Durante os testes em dezembro, um par de programas de IA foram inseridos no sistema: as Operações de Combate Aéreo Autônomas do Laboratório de Pesquisa da Força Aérea (AACO) e a Evolução de Combate Aéreo (ACE) da Agência de Projetos de Pesquisa Avançada de Defesa (DARPA). Os agentes de IA da AACO concentravam-se no combate com um único adversário além do alcance visual (BVR), enquanto o ACE concentrava-se em manobras no estilo dogfight com um inimigo simulado “visível” mais próximo.
Embora o VISTA exija um piloto certificado no cockpit traseiro como backup, durante os voos de teste, um engenheiro treinado nos sistemas de IA ocupou o cockpit dianteiro para lidar com quaisquer problemas técnicos que surgissem. No final, essas questões eram menores. Embora não seja capaz de elaborar os meandros, o gerente de programa da DARPA, tenente-coronel Ryan Hefron, explica que quaisquer soluços eram “esperados ao fazer a transição do virtual para o vivo”. Em suma, foi um passo significativo para realizar o objetivo do Skyborg de fazer aeronaves autônomas decolarem o mais rápido possível.
O Departamento de Defesa enfatiza que o AACO e o ACE são projetados para complementar os pilotos humanos, não para substituí-los. Em alguns casos, os sistemas de co-piloto de IA podem atuar como um mecanismo de suporte para pilotos em combate ativo. Com AACO e ACE capazes de analisar milhões de entradas de dados por segundo e ter a capacidade de assumir o controle do avião em momentos críticos, isso pode ser vital em situações de vida ou morte. Para missões mais rotineiras que não requerem intervenção humana, os voos podem ser totalmente autônomos, com a seção do nariz dos aviões sendo trocada quando um cockpit não é necessário para um piloto humano.
“Não estamos tentando substituir pilotos, estamos tentando aumentar eles, dê a eles uma ferramenta extra”, diz Cotting. Ele desenha a analogia de soldados de campanhas passadas cavalgando para a batalha. “O cavalo e o humano tiveram que trabalhar juntos”, diz ele. “O cavalo pode percorrer a trilha muito bem, então o cavaleiro não precisa se preocupar em ir do ponto A ao B. Seu cérebro pode ser liberado para ter pensamentos maiores.” Por exemplo, diz Cotting, um primeiro-tenente com 100 horas de experiência no cockpit poderia ganhar artificialmente a mesma vantagem que um oficial de patente muito mais alta com 1.000 horas de experiência de voo, graças ao aumento da IA.
Para Bill Gray, piloto-chefe de testes da USAF Test Pilot School, incorporar a IA é uma extensão natural do trabalho que ele faz com alunos humanos. “Sempre que nós [pilots] conversamos com engenheiros e cientistas sobre as dificuldades de treinar e qualificar agentes de IA, eles normalmente tratam isso como um problema novo”, diz. “Isso me incomoda, porque venho treinando e qualificando agentes de inteligência natural altamente não lineares e imprevisíveis – estudantes – há décadas. Para mim, a questão não é: ‘Podemos treinar e qualificar agentes de IA?’ É, ‘Por que podemos treinar e qualificar humanos, e o que isso pode nos ensinar sobre fazer o mesmo para agentes de IA?’
Gray acredita que a IA “não é uma ferramenta maravilhosa que pode resolver todos os problemas”, mas que deve ser desenvolvida de maneira equilibrada, com medidas de segurança integradas para evitar contratempos dispendiosos. Uma confiança excessiva na IA – uma “confiança na autonomia” – pode ser perigosa, acredita Gray, apontando falhas no programa de piloto automático da Tesla, apesar de a Tesla afirmar a necessidade de o motorista estar ao volante como reserva. Cotting concorda, chamando a capacidade de testar programas de IA no VISTA de “plano de redução de risco”. Ao treinar IA em sistemas convencionais como o VISTA X-62 – em vez de construir uma aeronave totalmente nova – limites automáticos e, se necessário, intervenção do piloto de segurança podem ajudar a evitar que a IA coloque a aeronave em perigo à medida que aprende.
.