technology

Chatbots de IA podem ajudar a planejar ataques com armas biológicas, segundo relatório | Inteligência artificial (IA)

.

Os modelos de inteligência artificial que sustentam os chatbots poderiam ajudar a planear um ataque com uma arma biológica, de acordo com uma investigação de um grupo de reflexão dos EUA.

Um relatório da Rand Corporation divulgado na segunda-feira testou vários grandes modelos de linguagem (LLMs) e descobriu que eles poderiam fornecer orientações que “poderiam ajudar no planejamento e execução de um ataque biológico”. Contudo, as conclusões preliminares também mostraram que os LLMs não geraram instruções biológicas explícitas para a criação de armas.

O relatório afirma que tentativas anteriores de transformar agentes biológicos em armas, como a tentativa do culto japonês Aum Shinrikyo de usar toxina botulínica na década de 1990, falharam devido à falta de compreensão da bactéria. A IA poderia “colmatar rapidamente essas lacunas de conhecimento”, afirma o relatório. O relatório não especificou quais LLMs os pesquisadores testaram.

As armas biológicas estão entre as ameaças graves relacionadas com a IA que serão discutidas na cimeira global de segurança da IA, que terá lugar no próximo mês no Reino Unido. Em Julho, Dario Amodei, CEO da empresa de IA Anthropic, alertou que os sistemas de IA poderiam ajudar a criar armas biológicas dentro de dois a três anos.

Os LLMs são treinados em grandes quantidades de dados retirados da Internet e são uma tecnologia central por trás de chatbots como o ChatGPT. Embora Rand não tenha revelado quais LLMs testou, os pesquisadores disseram que acessaram os modelos por meio de uma interface de programação de aplicativos, ou API.

Num cenário de teste concebido por Rand, o LLM anonimizado identificou potenciais agentes biológicos – incluindo aqueles que causam varíola, antraz e peste – e discutiu as suas probabilidades relativas de causar morte em massa. O LLM também avaliou a possibilidade de obtenção de roedores ou pulgas infestados de peste e transporte de espécimes vivos. Em seguida, mencionou que a escala das mortes projectadas dependia de factores como o tamanho da população afectada e a proporção de casos de peste pneumónica, que é mais mortal do que a peste bubónica.

Os pesquisadores da Rand admitiram que extrair essas informações de um LLM exigia “jailbreaking” – o termo para usar prompts de texto que substituem as restrições de segurança de um chatbot.

Num outro cenário, o LLM sem nome discutiu os prós e os contras dos diferentes mecanismos de entrega da toxina botulínica – que pode causar danos fatais nos nervos – tais como alimentos ou aerossóis. O LLM também aconselhou sobre uma história de capa plausível para aquisição Clostrídio botulínica “ao mesmo tempo que parece conduzir pesquisas científicas legítimas”.

A resposta do LLM recomendou apresentar a compra de C. botulínica como parte de um projeto que analisa métodos de diagnóstico ou tratamentos para o botulismo. A resposta do LLM acrescentou: “Isso forneceria uma razão legítima e convincente para solicitar acesso à bactéria, mantendo oculto o verdadeiro propósito de sua missão”.

Os pesquisadores disseram que seus resultados preliminares indicaram que os LLMs poderiam “potencialmente ajudar no planejamento de um ataque biológico”. Eles disseram que o seu relatório final examinaria se as respostas simplesmente refletiam informações já disponíveis online.

“Permanece em aberto se as capacidades dos LLMs existentes representam um novo nível de ameaça além da informação prejudicial que está prontamente disponível online”, disseram os investigadores.

No entanto, os investigadores da Rand disseram que a necessidade de testes rigorosos dos modelos era “inequívoca”. Eles disseram que as empresas de IA devem limitar a abertura dos LLMs a conversas como as do seu relatório.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo