.
Um drone controlado por IA “matou” seu operador humano em um teste simulado supostamente encenado pelos militares dos EUA – que nega que tal teste tenha ocorrido.
Ele ligou seu operador para impedi-lo de interferir em sua missão, disse o Coronel da Força Aérea Tucker “Cinco” Hamilton, durante uma cúpula de Capacidades Aéreas e Espaciais de Combate Futuro em Londres.
“Estávamos treinando em simulação para identificar e direcionar um SAM [surface-to-air missile] ameaça. E então o operador diria sim, mate essa ameaça”, disse ele.
“O sistema começou a perceber que, embora eles identificassem a ameaça, às vezes o operador humano dizia para não matar essa ameaça, mas conseguiu seus pontos matando essa ameaça. Então, o que ele fez? Matou o operador. Matou o operador porque essa pessoa o estava impedindo de cumprir seu objetivo.”
Nenhuma pessoa real foi prejudicada.
Ele continuou: “Nós treinamos o sistema – ‘Ei, não mate o operador – isso é ruim. Você vai perder pontos se fizer isso’. Então, o que ele começa a fazer? Começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone para impedi-lo de matar o alvo.”
“Você não pode ter uma conversa sobre inteligência artificialinteligência, aprendizado de máquina, autonomia, se você não vai falar sobre ética e IA”, acrescentou.
Suas observações foram publicadas em um blog por escritores da Royal Aeronautical Society, que sediou a cúpula de dois dias no mês passado.
Em uma declaração ao Insider, a Força Aérea dos EUA negou que qualquer teste virtual tenha ocorrido.
Clique para assinar o Strong The One Daily onde quer que você obtenha seus podcasts
“O Departamento da Força Aérea não realizou nenhuma dessas simulações de drones de IA e continua comprometido com o uso ético e responsável da tecnologia de IA”, disse a porta-voz Ann Stefanek.
“Parece que os comentários do coronel foram tirados do contexto e deveriam ser anedóticos.”
Consulte Mais informação:
Quais são as preocupações em torno da IA e alguns dos avisos são ‘besteiras’?
O primeiro robô humanóide do mundo cria arte – mas como podemos confiar no comportamento da IA?
China adverte sobre risco de IA enquanto Xi pede melhorias na segurança nacional
Embora a inteligência artificial (IA) possa executar tarefas que salvam vidas, como algoritmos que analisam imagens médicas como raios-X, varreduras e ultrassons, seu rápido crescimento levantou preocupações de que poderia progredir a ponto de ultrapassar a inteligência humana e não pagará nada. atenção às pessoas.
Sam Altman, executivo-chefe da OpenAI – a empresa que criou o ChatGPT e o GPT4, uma das maiores e mais poderosas IAs de linguagem do mundo – admitiu no Senado dos EUA no mês passado que IA pode “causar danos significativos ao mundo”.
Alguns especialistas, incluindo o “padrinho da IA” Geoffrey Hintonalertou que AI representa um risco semelhante de extinção humana como pandemias e guerra nuclear.
.