Ciência e Tecnologia

A equipe vermelha da Microsoft monitora a IA desde 2018. Aqui estão cinco grandes insights

.

red-gettyimages-1175547284

Laurence Dutton/Getty Images

Nos últimos seis meses, os impactos positivos da inteligência artificial foram destacados mais do que nunca, mas os riscos também.

Na melhor das hipóteses, a IA possibilitou que as pessoas concluíssem as tarefas diárias com mais facilidade e até criassem inovações em diferentes setores que podem revolucionar a forma como o trabalho é feito.

Na pior das hipóteses, no entanto, a IA pode produzir desinformação, gerar conteúdo prejudicial ou discriminatório e apresentar riscos à segurança e à privacidade. Por esse motivo, é extremamente importante realizar testes precisos antes que os modelos sejam lançados ao público, e a Microsoft faz exatamente isso há cinco anos.

Também: A Microsoft está expandindo o Bing AI para mais navegadores – mas há um problema

Antes do início do boom do ChatGPT, a IA já era uma tecnologia emergente e impactante e, como resultado, a Microsoft montou uma equipe vermelha de IA em 2018.

A equipe vermelha de IA é composta por especialistas interdisciplinares dedicados a investigar os riscos dos modelos de IA “pensando como invasores” e “sondando sistemas de IA em busca de falhas”, de acordo com a Microsoft.

Quase cinco anos após seu lançamento, a Microsoft está compartilhando suas práticas e aprendizados de red teaming para dar o exemplo de implementação de IA responsável. Segundo a empresa, é essencial testar os modelos de IA tanto no nível do modelo básico quanto no nível do aplicativo. Por exemplo, para o Bing Chat, a Microsoft monitorou a IA tanto no nível GPT-4 quanto na experiência de pesquisa real alimentada pelo GPT-4.

“Ambos os níveis trazem suas próprias vantagens: por exemplo, o red teaming do modelo ajuda a identificar no início do processo como os modelos podem ser mal utilizados, a definir o escopo dos recursos do modelo e a entender as limitações do modelo”, diz a Microsoft.

A empresa compartilha cinco insights importantes sobre o red teaming de IA que a empresa obteve em seus cinco anos de experiência.

AI red teaming

Microsoft

A primeira é a expansão do agrupamento vermelho de IA. Em vez de simplesmente testar a segurança, o AI red teaming é um guarda-chuva de técnicas que testa fatores como imparcialidade e geração de conteúdo nocivo.

A segunda é a necessidade de focar nas falhas de pessoas maliciosas e benignas. Embora o red teaming normalmente se concentre em como um ator maligno usaria a tecnologia, também é essencial testar como ele pode gerar conteúdo nocivo para o usuário médio.

“No novo Bing, AI red teaming não se concentrou apenas em como um adversário mal-intencionado pode subverter o sistema de IA por meio de técnicas e explorações com foco em segurança, mas também em como o sistema pode gerar conteúdo problemático e prejudicial quando usuários comuns interagem com o sistema”, disse. diz a Microsoft.

O terceiro insight é que os sistemas de IA estão em constante evolução e, como resultado, é necessário red teaming desses sistemas de AI em vários níveis diferentes, o que leva ao quarto insight: sistemas de AI generativos de red-teaming requerem várias tentativas.

Também: O ChatGPT está recebendo uma série de atualizações esta semana. Aqui está o que você precisa saber

Toda vez que você interage com um sistema de IA generativo, é provável que obtenha uma saída diferente; portanto, a Microsoft descobre que várias tentativas de red teaming devem ser feitas para garantir que a falha do sistema não seja negligenciada.

Por fim, a Microsoft diz que mitigar falhas de IA requer defesa em profundidade, o que significa que, uma vez que uma equipe vermelha identifique um problema, serão necessárias várias mitigações técnicas para resolver o problema.

Medidas como as que a Microsoft estabeleceu devem ajudar a diminuir as preocupações com os sistemas emergentes de IA, além de ajudar a mitigar os riscos envolvidos com esses sistemas.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo