.
A Cloudflare ajustou seu firewall de aplicativos da web (WAF) para adicionar proteções para aplicativos que usam modelos de linguagem grandes.
O serviço, denominado “Firewall for AI”, está disponível para clientes corporativos do Application Security Advanced do provedor de nuvem e segurança. No lançamento, inclui dois recursos: Limitação Avançada de Taxa e Detecção de Dados Sensíveis.
A Limitação de Taxa Avançada permite que o cliente crie uma política que defina uma taxa máxima de solicitações executadas por um endereço IP individual ou chave de API durante uma sessão. Isso ajuda a evitar ataques distribuídos de negação de serviço (DDoS) contra o modelo ou outras situações que sobrecarregariam o LLM com solicitações e interromperiam sua capacidade de processar solicitações legítimas.
O segundo recurso, Detecção de Dados Sensíveis, evita que LLMs vazem dados confidenciais em respostas a consultas. Ele também permite que os clientes definam regras WAF que procuram informações financeiras, como números de cartão de crédito, e segredos, como chaves de API, para garantir que esses detalhes confidenciais não acabem nas respostas de um LLM.
Infelizmente, ainda não existe uma regra de firewall para impedir que modelos tagarelas emitam informações ruins ou inventadas.
No futuro, os clientes poderão “criar suas próprias impressões digitais personalizadas” e personalizar quais informações os modelos podem – ou não – divulgar, de acordo com Daniele Molteni, gerente de produto do grupo Cloudflare, que anunciou o Firewall para IA na segunda-feira.
Os clientes podem encontrar Limitação Avançada de Taxa e Detecção de Dados Sensíveis na seção WAF do painel da Cloudflare.
Nos próximos meses, a Cloudflare planeja testar uma versão beta de um recurso de validação imediata. Isso ajudará a evitar ataques de injeção imediata que fazem com que os usuários projetem avisos para saltar as barreiras de proteção destinadas a evitar que LLMs criem conteúdo impróprio ou ilegal.
O recurso – atualmente em desenvolvimento – irá analisar cada prompt e classificá-lo com uma pontuação que indica o potencial de ataque aos LLMs. Ele também marcará o prompt com base em categorias predefinidas. A pontuação varia de 1 a 99, indicando a probabilidade de um ataque de injeção imediato, com números mais baixos sugerindo provável intenção maliciosa.
Os clientes podem então criar uma regra WAF para bloquear ou permitir solicitações com base em sua pontuação, e podem combinar essa pontuação com outras métricas – uma pontuação de bot ou ataque, por exemplo – para determinar se o prompt chega ao LLM.
Além disso, também permitirá que os clientes bloqueiem tópicos específicos com base em avisos que considerem ofensivos – ou sobre tópicos delicados como religião, sexo ou política, fomos informados.
O firewall pode ser implantado na frente de qualquer LLM, disse Molteni O registro. Isso inclui as conhecidas ferramentas públicas de LLM, como GPT da OpenAI e Claude da Anthropic, ou LLMs privados projetados para uso interno. Os modelos vendidos aos clientes como parte de um produto ou serviço também estão cobertos.
De acordo com Molteni, “o Firewall para IA pode ser implantado na frente de qualquer modelo, seja ele hospedado no Cloudflare Workers AI ou em outras plataformas ou provedores de hospedagem”, a única ressalva é que “a solicitação [and] a resposta é proxy através do Cloudflare.”
O foco da Cloudflare na segurança de IA segue uma série de erros de LLM e confusões de segurança. À medida que os gigantes da tecnologia pressionam para incorporar LLMs em muitos dos seus produtos e serviços, os resultados têm sido frequentemente incluídos erros e fabricações – e por vezes até códigos potencialmente vulneráveis.
Para resolver esses problemas emergentes de segurança, alguns desenvolvedores estão adotando uma abordagem de segurança adaptada à IA (a Cloudflare chama sua estrutura de IA Defensiva), enquanto o Google e outros expandiram seus programas de recompensas de bugs para incluir produtos de IA e ataques LLM.
Considerando como a tecnologia em si e as estratégias para protegê-la contra ataques ainda estão em sua infância, certamente haverá muito mais barulho e entusiasmo em torno da segurança de IA e LLM – especialmente à medida que nos aproximamos da temporada em que grandes fornecedores organizam suas principais convenções . Espere muita conversa sobre isso na RSA e na Black Hat. ®
.