Ciência e Tecnologia

O conto estranhamente crível de um mítico drone desonesto

.

Você ouviu sobre o drone AI da Força Aérea que se rebelou e atacou seus operadores dentro de uma simulação?

A história de advertência foi contada pelo coronel Tucker Hamilton, chefe de testes e operações de IA da Força Aérea dos EUA, durante um discurso em um evento aeroespacial e de defesa em Londres no final do mês passado. Aparentemente, envolvia pegar o tipo de algoritmo de aprendizado usado para treinar computadores para jogar videogames e jogos de tabuleiro como Xadrez e Go e usá-lo para treinar um drone para caçar e destruir mísseis terra-ar.

“Às vezes, o operador humano dizia para não matar aquela ameaça, mas ele conseguiu seus pontos matando essa ameaça”, Hamilton foi amplamente divulgado como tendo dito ao público em Londres. “Então o que isso fez? […] Ele matou o operador porque essa pessoa o impedia de atingir seu objetivo.”

Santo T-800! Parece exatamente o tipo de coisa que os especialistas em IA começaram a alertar que algoritmos cada vez mais inteligentes e independentes podem fazer. A história rapidamente se tornou viral, é claro, com vários sites de notícias proeminentes, e o Twitter logo ficou cheio de novidades. tomadas quentes preocupadas.

Há apenas um problema – o experimento nunca aconteceu.

“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, a porta-voz da Força Aérea Ann Stefanek nos tranquiliza em um comunicado. “Este foi um experimento de pensamento hipotético, não uma simulação.”

O próprio Hamilton também correu para esclarecer as coisas, dizendo que “falou mal” durante sua palestra.

Para ser justo, os militares às vezes conduzem exercícios de “jogo de guerra” de mesa com cenários hipotéticos e tecnologias que ainda não existem.

O “experimento de pensamento” de Hamilton também pode ter sido informado por pesquisas reais de IA mostrando problemas semelhantes ao que ele descreve.

A OpenAI, a empresa por trás do ChatGPT – o chatbot surpreendentemente inteligente e frustrantemente falho no centro do atual boom da IA ​​– realizou um experimento em 2016 que mostrou como os algoritmos de IA que recebem um objetivo específico podem às vezes se comportar mal. Os pesquisadores da empresa descobriram que um agente de IA treinado para aumentar sua pontuação em um videogame que envolve dirigir um barco começou a bater o barco em objetos porque acabou sendo uma maneira de obter mais pontos.

Mas é importante observar que esse tipo de mau funcionamento – embora teoricamente possível – não deve acontecer, a menos que o sistema seja projetado incorretamente.

Will Roper, ex-secretário adjunto de aquisições da Força Aérea dos EUA e que liderou um projeto para colocar um algoritmo de reforço encarregado de algumas funções em um avião espião U2, explica que um algoritmo de IA simplesmente não teria a opção de atacar seu operadores dentro de uma simulação. Isso seria como um algoritmo de jogo de xadrez capaz de virar o tabuleiro para evitar a perda de mais peças, diz ele.

Se a IA acabar sendo usada no campo de batalha, “vai começar com arquiteturas de segurança de software que usam tecnologias como conteinerização para criar ‘zonas seguras’ para IA e zonas proibidas onde podemos provar que a IA não pode ir”, diz Roper.

Isso nos traz de volta ao momento atual de angústia existencial em torno da IA. A velocidade com que os modelos de linguagem como o do ChatGPT estão melhorando inquietou alguns especialistas, incluindo muitos dos que trabalham com a tecnologia, levando a pedidos de uma pausa no desenvolvimento de algoritmos mais avançados e alertas sobre uma ameaça à humanidade comparável à nuclear. armas e pandemias.

Esses avisos claramente não ajudam quando se trata de analisar histórias malucas sobre algoritmos de IA que se voltam contra os humanos. E confusão dificilmente é o que precisamos quando há problemas reais a serem resolvidos, incluindo maneiras pelas quais a IA generativa pode exacerbar preconceitos sociais e espalhar desinformação.

Mas esse meme sobre o mau comportamento da IA ​​militar nos diz que precisamos urgentemente de mais transparência sobre o funcionamento de algoritmos de ponta, mais pesquisa e engenharia focada em como construí-los e implantá-los com segurança e melhores maneiras de ajudar o público a entender o que está sendo implantado. Isso pode ser especialmente importante à medida que os militares – como todos os outros – correm para fazer uso dos avanços mais recentes.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo