.

Nos últimos seis meses, os impactos positivos da inteligência artificial foram destacados mais do que nunca, mas os riscos também.
Na melhor das hipóteses, a IA possibilitou que as pessoas concluíssem as tarefas diárias com mais facilidade e até criassem inovações em diferentes setores que podem revolucionar a forma como o trabalho é feito.
Na pior das hipóteses, no entanto, a IA pode produzir desinformação, gerar conteúdo prejudicial ou discriminatório e apresentar riscos à segurança e à privacidade. Por esse motivo, é extremamente importante realizar testes precisos antes que os modelos sejam lançados ao público, e a Microsoft faz exatamente isso há cinco anos.
Também: A Microsoft está expandindo o Bing AI para mais navegadores – mas há um problema
Antes do início do boom do ChatGPT, a IA já era uma tecnologia emergente e impactante e, como resultado, a Microsoft montou uma equipe vermelha de IA em 2018.
A equipe vermelha de IA é composta por especialistas interdisciplinares dedicados a investigar os riscos dos modelos de IA “pensando como invasores” e “sondando sistemas de IA em busca de falhas”, de acordo com a Microsoft.
Quase cinco anos após seu lançamento, a Microsoft está compartilhando suas práticas e aprendizados de red teaming para dar o exemplo de implementação de IA responsável. Segundo a empresa, é essencial testar os modelos de IA tanto no nível do modelo básico quanto no nível do aplicativo. Por exemplo, para o Bing Chat, a Microsoft monitorou a IA tanto no nível GPT-4 quanto na experiência de pesquisa real alimentada pelo GPT-4.
“Ambos os níveis trazem suas próprias vantagens: por exemplo, o red teaming do modelo ajuda a identificar no início do processo como os modelos podem ser mal utilizados, a definir o escopo dos recursos do modelo e a entender as limitações do modelo”, diz a Microsoft.
A empresa compartilha cinco insights importantes sobre o red teaming de IA que a empresa obteve em seus cinco anos de experiência.
A primeira é a expansão do agrupamento vermelho de IA. Em vez de simplesmente testar a segurança, o AI red teaming é um guarda-chuva de técnicas que testa fatores como imparcialidade e geração de conteúdo nocivo.
A segunda é a necessidade de focar nas falhas de pessoas maliciosas e benignas. Embora o red teaming normalmente se concentre em como um ator maligno usaria a tecnologia, também é essencial testar como ele pode gerar conteúdo nocivo para o usuário médio.
“No novo Bing, AI red teaming não se concentrou apenas em como um adversário mal-intencionado pode subverter o sistema de IA por meio de técnicas e explorações com foco em segurança, mas também em como o sistema pode gerar conteúdo problemático e prejudicial quando usuários comuns interagem com o sistema”, disse. diz a Microsoft.
O terceiro insight é que os sistemas de IA estão em constante evolução e, como resultado, é necessário red teaming desses sistemas de AI em vários níveis diferentes, o que leva ao quarto insight: sistemas de AI generativos de red-teaming requerem várias tentativas.
Também: O ChatGPT está recebendo uma série de atualizações esta semana. Aqui está o que você precisa saber
Toda vez que você interage com um sistema de IA generativo, é provável que obtenha uma saída diferente; portanto, a Microsoft descobre que várias tentativas de red teaming devem ser feitas para garantir que a falha do sistema não seja negligenciada.
Por fim, a Microsoft diz que mitigar falhas de IA requer defesa em profundidade, o que significa que, uma vez que uma equipe vermelha identifique um problema, serão necessárias várias mitigações técnicas para resolver o problema.
Medidas como as que a Microsoft estabeleceu devem ajudar a diminuir as preocupações com os sistemas emergentes de IA, além de ajudar a mitigar os riscos envolvidos com esses sistemas.
.








