technology

Google detalha planos para aumentar a segurança na nuvem com modelos de IA • Strong The One

.

Conferência RSA O Google Cloud usou a conferência RSA 2023 para falar sobre como injetou inteligência artificial em vários cantos de seus serviços relacionados à segurança.

do gigante da web anúncio dos novos recursos resultantes – comercializados sob a marca guarda-chuva Google Cloud Security AI Workbench – é bastante prolixo, então pensamos em perguntar Bardo bot de bate-papo para resumir tudo. Aqui está o que a coisa nos disse:

Hum, ok, isso meio que faz sentido, mas ainda não temos certeza do que exatamente há de novo aqui. Talvez o diagrama que o Google distribuiu sobre o workbench ajude?

Ilustração do Google mostrando como seu ambiente de trabalho de IA funciona

Tudo bem, vamos ler e resumir o anúncio nós mesmos. Veja o que há de novo e digno de destaque no Google Cloud:

VirusTotal e Sec-PaLM

O Google disse que criou um grande modelo de linguagem especializado em segurança chamado Sec-PaLM que é usado no VirusTotal, que também é propriedade do Google. Quando você carrega malware no VirusTotal para análise, ele usa o Sec-PaLM para gerar um relatório escrito (como este) descrevendo o que o código do arquivo fará se executado e qual parece ser a intenção.

até agora isso Visão do código O recurso funciona em scripts qualificados do PowerShell e espera-se que seja expandido para outros formatos de arquivo.

Mandiant Breach Analytics para Chronicle

Em seguida, o Google disse que seu Mandiant Breach Analytics for Chronicle irá alertá-lo quando detectar uma invasão e usará o Sec-PaLM para descrever essas violações de segurança.

Mergulhando mais fundo no anúncio revela que o LLM pode ser usado para pesquisar e analisar logs de eventos de segurança, configurar e personalizar a detecção de atividades maliciosas ou suspeitas em uma rede e produzir resumos e insights.

Ele basicamente traz a tecnologia de inteligência de ameaças da Mandiant, de propriedade do Google, para o Chronicle, o pacote de segurança em nuvem do Google.

Software de código aberto garantido

O Google também prometeu usar LLMs de alguma forma para adicionar mais pacotes ao seu projeto Assured Open Source Software, que Google usa para evitar ataques à cadeia de suprimentos e sugere que você também faça uso dela.

Espera-se que as dependências no AOSS estejam livres de adulteração, obtidas de fontes controladas, difusas e analisadas quanto a vulnerabilidades e incluam metadados úteis sobre seu conteúdo. A ideia é que seja um lugar para obter software sem se preocupar se alguém secretamente colocou coisas ruins em uma biblioteca.

IA de Inteligência de Ameaças Mandiant

É Sec-PaLM novamente, desta vez em Mandiant Threat Intelligence AI, que pode ser usado para “encontrar, resumir e agir rapidamente em relação às ameaças relevantes para sua organização”, nos dizem.

IA do Centro de Comando de Segurança

Finalmente, Security Command Center AI promessas para tornar mais fácil para os usuários entenderem como suas organizações podem ser atacadas, resumindo e explicando a situação.

Crucialmente, ele não parece usar exemplos hipotéticos, em vez disso, analisa seus ativos e recursos e informa como alguém poderia invadir seu ambiente de TI especificamente. Também recomenda mitigações, disse o Google.

Isso é mais parecido com o futuro da IA ​​que imaginamos, não com bots de bate-papo fabricando biografias de pessoas.

Contexto

Curiosamente, o Google diz que os clientes podem criar plug-ins para acessar a plataforma e estender sua funcionalidade de maneiras personalizadas. Há também a promessa usual de que quaisquer dados fornecidos ou de propriedade do cliente não acabarão nas mãos de terceiros.

“O Google Cloud Security AI Workbench potencializa novas ofertas que agora podem abordar com exclusividade os três principais desafios de segurança: sobrecarga de ameaças, ferramentas difíceis e falta de talentos”, disse Sunil Potti, vice-presidente do Google Cloud Security, em um comunicado na segunda-feira.

“Também contará com integrações de plug-in de parceiros para trazer inteligência de ameaças, fluxo de trabalho e outras funcionalidades críticas de segurança para os clientes”.

O que o Google anunciou hoje está sendo visto como uma resposta ao copiloto de segurança da OpenAI da Microsoft lançado mês passado. O que é engraçado é que, anos atrás, a equipe do Google Brain inventou a abordagem do transformador agora usada por todos esses LLMs modernos e, portanto, o Big G hoje se encontra na estranha situação de aparentemente tentar recuperar o atraso na tecnologia que estava ou está na vanguarda de .

“Precisamos primeiro reconhecer que a IA em breve dará início a uma nova era para a especialização em segurança, que afetará profundamente a forma como os profissionais ‘fazem’ segurança”, acrescentou Potti. “A maioria das pessoas responsáveis ​​pela segurança – desenvolvedores, administradores de sistema, SRE e até mesmo analistas juniores – não são especialistas em segurança por treinamento.”

A Accenture é a primeira cobaia do Google Cloud Security AI Workbench, nos disseram. Para o resto de nós, o Code Insight está disponível agora em forma de visualização, e o restante será lançado gradualmente para testadores e em visualização este ano, se tudo correr conforme o planejado. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo