News

Carros-bomba autônomos e recrutamento online: especialistas temem como a inteligência artificial poderia transformar o terrorismo

.

Os especialistas temem que os terroristas encontrem utilizações novas e problemáticas para a inteligência artificial, incluindo novos métodos para entregar explosivos e melhorar as iniciativas de recrutamento online.

“A realidade é que a IA pode ser extremamente perigosa se usada com intenções maliciosas”, escreveu Antonia Marie Di Meo, diretora do Instituto Regional de Investigação sobre Crime e Justiça das Nações Unidas, num relatório que examina a forma como os terroristas estão a usar a IA.

Ela acrescentou: “Com um histórico comprovado no mundo do crime cibernético, é considerada uma ferramenta poderosa que pode ser razoavelmente usada para facilitar o terrorismo e o extremismo violento que leva ao terrorismo”, citando carros-bomba autônomos, o aumento de ataques cibernéticos ou criando caminhos mais fáceis para espalhar o discurso de ódio ou incitar ao terrorismo.

O relatório, intitulado “Algoritmos e Terrorismo: O Uso Malicioso da IA ​​para Fins Terroristas”, conclui que a aplicação da lei terá de permanecer na vanguarda da IA.

Tom Hanks alerta sobre anúncios de inteligência artificial para ‘drogas milagrosas’: ‘Não se deixe enganar’

“Nossa ambição é [this report] “É o início de uma conversa sobre o uso malicioso da inteligência artificial para fins terroristas”, escreveu Di Meo.

O relatório observou que a tarefa de se manter à frente dos terroristas e antecipar como eles usarão a IA se mostrará teimosa porque exige que eles não apenas pensem em maneiras de usar a IA que ninguém tenha pensado antes, mas também que descubram como impedir que alguém use o mesmo método.

O relatório apoia um estudo de uma colaboração entre o Centro de Excelência para a Investigação de Armas da OTAN e o Instituto de Estudos Estratégicos da Escola de Guerra do Exército dos EUA, intitulado “Tecnologias Emergentes e Terrorismo: Uma Perspectiva Americana”, que afirmava que “grupos terroristas exploram estas ferramentas para recrutamento e ataques.”

Um robô de seis rodas que verifica situações perigosas para que os humanos não precisem

“A linha entre a realidade e a ficção está a esbater-se numa era de rápido desenvolvimento tecnológico, instando os governos, as indústrias e o meio académico a unirem-se na formulação de quadros éticos e regulamentações”, escrevem os autores na introdução.

“À medida que as correntes geopolíticas mudam, a NATO enfatiza a responsabilidade nacional na luta contra o terrorismo e apela ao poder colectivo contra o espectro das ameaças induzidas pela tecnologia”, acrescentaram os autores.

Os especialistas alertam que a IA pode causar “grandes pandemias ou mesmo pandemias” – mas quando isso acontecerá?

O estudo observa usos gerais do ChatGPT da OpenAI “para aprimorar mensagens de phishing, plantar malware em bibliotecas de codificação abertas, espalhar desinformação e criar propaganda online”.

“Os cibercriminosos e os terroristas tornaram-se rapidamente adeptos da utilização de tais plataformas e, geralmente, de grandes modelos de linguagem para criar vídeos falsos ou chatbots alojados na dark web para obter informações pessoais e financeiras sensíveis, planear ataques terroristas ou recrutar seguidores”, escreveram os autores.

“É provável que este uso malicioso aumente no futuro à medida que os modelos evoluem. Armazenar conversas confidenciais e pesquisas na Internet e distribuí-las através de plataformas de IA ou através de grandes modelos de linguagem exigirá maior transparência e controlo”, acrescentaram.

No início deste ano, o Centro de Contraterrorismo de West Point publicou uma investigação sobre este tema, centrando-se na capacidade de melhorar as capacidades de planeamento de ataques terroristas, indo além de simplesmente melhorar o que já fazem.

O que é inteligência artificial (IA)?

“Em particular, os autores investigaram as implicações potenciais de comandos que poderiam ser inseridos nesses sistemas que efetivamente fazem o ‘jailbreak’ do modelo, permitindo-lhe remover muitos de seus padrões e políticas que impedem o modelo subjacente de fornecer informações extremistas, ilegais ou antiéticas. conteúdo.” “, conforme explicam os autores em seu resumo.

“Usando múltiplas narrativas, os autores exploram as diferentes maneiras pelas quais os extremistas podem explorar cinco modelos macrolinguísticos diferentes para apoiar os seus esforços de formação, condução de planeamento operacional e desenvolvimento de propaganda.”

Seus testes revelaram que Bard é o mais resistente ao jailbreak – ou a contornar barreiras de segurança – seguido por ambos os modelos ChatGPT. Essencialmente, eles descobriram que as reivindicações indiretas eram relativamente suficientes para desbloquear um modelo em mais da metade dos casos.

O estudo concluiu que as proteções contra roubo precisam de revisão contínua e “maior colaboração entre os setores público e privado”, incluindo o meio acadêmico, as empresas de tecnologia e a comunidade de segurança.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo