.
O mundo ao nosso redor está constantemente sendo fotografado com flash por sistemas de radar adaptativos. De salinas a montanhas e tudo mais, o radar adaptativo é usado para detectar, localizar e rastrear objetos em movimento. Só porque os olhos humanos não conseguem ver essas faixas de frequência ultra-alta (UHF) não significa que eles não estejam tirando fotos.
Embora os sistemas de radar adaptativos existam desde a Segunda Guerra Mundial, eles atingiram uma barreira fundamental de desempenho nas últimas duas décadas. Mas com a ajuda de abordagens modernas de IA e lições aprendidas com a visão computacional, pesquisadores da Duke University quebraram essa barreira e querem levar todos os outros no campo junto com eles.
Em um novo artigo publicado em 16 de julho na revista Radar, Sonar e Navegação IET, Os engenheiros da Duke mostram que usar redes neurais convolucionais (CNNs) — um tipo de IA que revolucionou a visão computacional — pode melhorar muito os sistemas de radar adaptativos modernos. E em um movimento que acompanha o ímpeto do boom da visão computacional, eles lançaram um grande conjunto de dados de paisagens digitais para outros pesquisadores de IA desenvolverem seu trabalho.
“Os métodos de radar clássicos são muito bons, mas não são bons o suficiente para atender às demandas da indústria por produtos como veículos autônomos”, disse Shyam Venkatasubramanian, um assistente de pesquisa de pós-graduação trabalhando no laboratório de Vahid Tarokh, o Rhodes Family Professor de Engenharia Elétrica e de Computação na Duke. “Estamos trabalhando para trazer a IA para o espaço do radar adaptativo para lidar com problemas como detecção de objetos, localização e rastreamento que a indústria precisa resolver.”
Em seu nível mais básico, o radar não é difícil de entender. Um pulso de ondas de rádio de alta frequência é transmitido, e uma antena coleta dados de quaisquer ondas que ricocheteiam. À medida que a tecnologia avançou, no entanto, também avançaram os conceitos usados pelos sistemas de radar modernos. Com a capacidade de moldar e direcionar sinais, processar vários contatos de uma vez e filtrar ruído de fundo, a tecnologia percorreu um longo caminho no século passado.
Mas o radar chegou quase tão longe quanto podia usando apenas essas técnicas. Os sistemas de radar adaptativos ainda lutam para localizar e rastrear objetos em movimento com precisão, especialmente em ambientes complexos como terrenos montanhosos.
Para mover o radar adaptativo para a era da IA, Venkatasubramanian e Tarokh foram inspirados pela história da visão computacional. Em 2010, pesquisadores da Universidade de Stanford lançaram um enorme banco de dados de imagens consistindo de mais de 14 milhões de imagens anotadas chamado ImageNet. Pesquisadores ao redor do mundo usaram o ImageNet para testar e comparar novas abordagens de IA que se tornaram padrão da indústria.
No novo artigo, Venkatasubramanian e seus colaboradores mostram que usar as mesmas abordagens de IA melhora muito o desempenho dos atuais sistemas de radar adaptativos.
“Nossa pesquisa é paralela à pesquisa dos primeiros usuários de IA em visão computacional e dos criadores do ImageNet, mas dentro do radar adaptativo”, disse Venkatasubramanian. “Nossa IA proposta toma como entrada dados de radar processados e produz uma previsão da localização do alvo por meio de uma arquitetura simples que pode ser considerada paralela ao predecessor da maioria das arquiteturas modernas de visão computacional.”
Embora o grupo ainda tenha que testar seus métodos em campo, eles compararam o desempenho de sua IA em uma ferramenta de modelagem e simulação chamada RFView®, que ganha precisão ao incorporar a topografia e o terreno da Terra em sua caixa de ferramentas de modelagem. Então, continuando os passos da visão computacional, eles criaram 100 cenários de radar aerotransportado com base em paisagens de todos os Estados Unidos contíguos e os lançaram como um ativo de código aberto chamado “RASPNet”.
Este é um recurso valioso, pois apenas um punhado de equipes tem acesso ao RFView®. Os pesquisadores, no entanto, receberam permissão especial dos criadores do RFView® para construir o conjunto de dados — que contém mais de 16 terabytes de dados construídos ao longo de vários meses — e torná-lo publicamente disponível.
“Estou muito feliz que este trabalho inovador tenha sido publicado e, particularmente, que os dados associados estejam sendo disponibilizados no repositório RASPNet”, disse Hugh Griffiths, membro da Royal Academy of Engineering, membro do IEEE, membro do IET, OBE e da Cátedra THALES/Royal Academy de Sensores de RF na University College London, que não estava envolvido no trabalho. “Isso sem dúvida estimulará mais trabalho nesta área importante e garantirá que os resultados possam ser facilmente comparados entre si.”
Os cenários incluídos foram escolhidos a dedo por especialistas em radar e aprendizado de máquina e têm uma ampla gama de complexidade geográfica. O lado mais fácil para sistemas de radar adaptativos lidarem é o Bonneville Salt Flats, enquanto o mais difícil é o Mount Rainier. Venkatasubramanian e seu grupo esperam que outros peguem suas ideias e conjuntos de dados e criem abordagens de IA ainda melhores.
Por exemplo, em um artigo anterior, Venkatasubramanian mostrou que uma IA adaptada a uma localização geográfica específica poderia atingir uma melhoria de até sete vezes na localização de objetos em relação aos métodos clássicos. Se uma IA pudesse selecionar um cenário no qual já tivesse sido treinada que fosse semelhante ao seu ambiente atual, ela deveria melhorar substancialmente o desempenho.
“Achamos que isso terá um impacto realmente grande na comunidade de radar adaptativo”, disse Venkatasubramanian. “À medida que avançamos e continuamos adicionando recursos ao conjunto de dados, queremos fornecer à comunidade tudo o que ela precisa para impulsionar o campo para o uso de IA.”
Este trabalho foi apoiado pelo Escritório de Pesquisa Científica da Força Aérea (FA9550-21-1-0235, 20RYCORO51, 20RYCOR052).
.