.

Um kit de ferramentas de software foi atualizado para ajudar as instituições financeiras a cobrir mais áreas na avaliação de seu uso “responsável” de inteligência artificial (IA).
Lançado pela primeira vez em fevereiro do ano passado, o kit de ferramentas de avaliação se concentra em quatro princípios-chave sobre justiça, ética, responsabilidade e transparência – chamados coletivamente de FEAT. Ele oferece uma lista de verificação e metodologias para empresas do setor financeiro definirem os objetivos de seu uso de IA e análise de dados e identificar possíveis vieses.
Também: Essas 3 ferramentas de IA tornaram meu vídeo de instruções de dois minutos mais divertido e envolvente
O kit de ferramentas foi desenvolvido por um consórcio liderado pela Autoridade Monetária de Cingapura (MAS) que envolve 31 players do setor, incluindo Bank of China, BNY Mellon, Google Cloud, Microsoft, Goldman Sachs, Visa, OCBC Bank, Amazon Web Services, IBM, e Citibank.
A primeira versão do kit de ferramentas concentrou-se na metodologia de avaliação para o componente “imparcialidade” nos princípios do FEAT, que incluiu a automatização da avaliação de métricas e a visualização desse princípio.
A segunda iteração foi atualizada para incluir metodologias de revisão para os outros três princípios, bem como uma metodologia de avaliação de “justiça” aprimorada, disse o MAS. Vários bancos do consórcio testaram o kit de ferramentas.
Disponível no GitHub, o kit de ferramentas de código aberto permite plug-ins para permitir a integração com os sistemas de TI da instituição financeira.
Também: Seis habilidades necessárias para se tornar um engenheiro de prompt de IA
O consórcio, chamado Veritas, também desenvolveu novos casos de uso para demonstrar como a metodologia pode ser aplicada e oferecer lições importantes de implementação. Isso incluiu um estudo de caso envolvendo a Swiss Reinsurance, que realizou uma avaliação de transparência para sua função preditiva de subscrição baseada em IA. O Google também compartilhou sua experiência na aplicação das metodologias FEAT em seus sistemas de pagamento de detecção de fraude na Índia e no mapeamento de seus princípios e processos de IA.
A Veritas também divulgou um whitepaper descrevendo as lições compartilhadas por sete instituições financeiras, incluindo o Standard Chartered Bank e o HSBC, sobre a integração da metodologia de avaliação de IA com sua estrutura de governança interna. Isso inclui a necessidade de uma “estrutura de IA responsável” que abranja geografias e um modelo baseado em risco para determinar a governança necessária para os casos de uso de IA. O documento também detalha práticas responsáveis de IA e treinamento para uma nova geração de profissionais de IA no setor financeiro.
O diretor de fintech da MAS, Sopnendu Mohanty, disse: “Dado o ritmo acelerado dos desenvolvimentos em IA, é fundamental que as instituições financeiras tenham estruturas robustas para o uso responsável da IA. O Veritas Toolkit versão 2.0 permitirá que instituições financeiras e fintechs avaliem com eficácia seus casos de uso de IA para justiça, ética, responsabilidade e transparência. Isso ajudará a promover um ecossistema de IA responsável.”
Também: A IA tem o potencial de automatizar 40% do dia médio de trabalho
O governo de Cingapura identificou seis principais riscos associados à IA generativa e propôs uma estrutura sobre como essas questões podem ser abordadas. Também estabeleceu uma fundação que procura explorar a comunidade de código aberto para desenvolver kits de ferramentas de teste que mitiguem os riscos da adoção da IA.
Durante sua visita a Cingapura no início deste mês, o CEO da OpenAI, Sam Altman, pediu o desenvolvimento da IA generativa juntamente com a consulta pública, com os humanos permanecendo no controle. Ele disse que isso é essencial para mitigar possíveis riscos ou danos que possam estar associados à adoção da IA.
Altman disse que também é fundamental enfrentar os desafios relacionados ao viés e à localização de dados, à medida que a IA ganha força e o interesse das nações. Para a OpenAI, a ideia por trás do ChatGPT, isso significava descobrir como treinar sua plataforma de IA generativa em conjuntos de dados que fossem “o mais diversificados possível” e que abrangessem várias culturas, idiomas e valores, entre outros.
.