.

Como diferentes especialistas, especialistas em ética e até mesmo o governo pressionam por maior segurança no desenvolvimento e uso de ferramentas de inteligência artificial, a Microsoft subiu ao estágio de construção para anunciar novas medidas para segurança de conteúdo de IA.
Incluída em uma série de atualizações voltadas para uma IA responsável, a Microsoft lançou o Azure AI Content Safety, atualmente em fase de pré-visualização, além de outras medidas, como recursos de proveniência de mídia para suas ferramentas de IA, como Designer e Bing.
Também: O boom da IA de hoje amplificará os problemas sociais se não agirmos agora, diz especialista em ética da IA
O Microsoft Designer e o Bing Image Creator darão aos usuários a capacidade de determinar se uma imagem ou vídeo foi gerado por IA, por meio de próximas atualizações de origem de mídia. Isso será alcançado por meio de métodos criptográficos que poderão sinalizar a mídia gerada pela IA usando metadados sobre sua criação.
Durante a conferência de desenvolvedores Microsoft Build, a empresa também anunciou maneiras mais fáceis e simplificadas de desenvolver copilotos e plug-ins em sua plataforma. Sarah Bird, gerente de produto de um grupo de parceiros da Microsoft, lidera a IA responsável por tecnologias fundamentais.
Também: O Bing Chat recebe uma nova onda de atualizações, incluindo (finalmente) o histórico de bate-papo
Bird explicou que os desenvolvedores têm a responsabilidade de garantir que essas ferramentas forneçam resultados precisos e pretendidos e não enviesados, sexistas, racistas, odiosos ou violentos.
“É o sistema de segurança do GitHub Copilot, é parte do sistema de segurança do novo Bing. Agora o estamos lançando como um produto que outros clientes podem usar”, disse Bird.
Também: Bard AI do Google diz que ações urgentes devem ser tomadas para limitar (*verifica as notas*) o poder do Google
O desenvolvimento responsável da inteligência artificial é um grande tema para as empresas de tecnologia. O Dr. Vishal Sikka, CEO da Vianai Systems, uma empresa de aprendizado de máquina de alto desempenho, explica que há uma necessidade urgente de sistemas de IA que sejam seguros, confiáveis e amplifiquem nossa humanidade.
“Garantir que os humanos estejam centrados no desenvolvimento, implementação e uso de ferramentas de IA combinadas com uma estrutura robusta para monitorar, diagnosticar, melhorar e validar modelos de IA ajudará a mitigar os riscos e perigos inerentes a esses tipos de sistemas”, acrescentou Sikka.
Também: 6 maneiras prejudiciais de usar o ChatGPT
O novo serviço Azure AI da Microsoft será integrado ao serviço Azure OpenAI e ajudará os programadores a desenvolver plataformas e comunidades online mais seguras, empregando modelos criados especificamente para reconhecer conteúdo impróprio em imagens e texto.
Os modelos sinalizariam o conteúdo impróprio e atribuiriam uma pontuação de gravidade, orientando os moderadores humanos a determinar qual conteúdo requer intervenção urgente.
Também: ChatGPT e a nova IA estão causando estragos na cibersegurança
Além disso, Bird explicou que os filtros do Azure AI Content Safety podem ser ajustados para o contexto, pois o sistema também pode ser usado em sistemas não AI, como plataformas de jogos que exigem contexto para fazer inferências nos dados.
O desenvolvimento responsável da IA chegou até ao governo Biden. Microsoft, Google, OpenAI e outros CEOs de empresas de IA realizaram uma reunião de duas horas com a vice-presidente Kamala Harris para discutir os regulamentos de IA no início deste mês, e uma Declaração de Direitos da IA está em andamento.
.