.
Um estudante de doutorado da Oregon State University e pesquisadores da Adobe criaram uma nova técnica de treinamento econômica para sistemas de inteligência artificial que visa torná-los menos tendenciosos socialmente.
Eric Slyman, da OSU College of Engineering, e os pesquisadores da Adobe chamam o novo método de FairDeDup, uma abreviatura de desduplicação justa. A desduplicação significa remover informações redundantes dos dados usados para treinar sistemas de IA, o que reduz os altos custos computacionais do treinamento.
Os conjuntos de dados obtidos na Internet muitas vezes contêm preconceitos presentes na sociedade, disseram os pesquisadores. Quando esses preconceitos são codificados em modelos de IA treinados, podem servir para perpetuar ideias e comportamentos injustos.
Ao compreender como a desduplicação afeta a prevalência de preconceitos, é possível mitigar os efeitos negativos – como um sistema de IA que exibe automaticamente apenas fotos de homens brancos se solicitado a mostrar a foto de um CEO, médico, etc. mostrar diversas representações de pessoas.
“Nós o chamamos de FairDeDup como um jogo de palavras para um método anterior com boa relação custo-benefício, SemDeDup, que melhoramos ao incorporar considerações de justiça”, disse Slyman. “Embora trabalhos anteriores tenham mostrado que a remoção desses dados redundantes pode permitir um treinamento preciso de IA com menos recursos, descobrimos que esse processo também pode exacerbar os preconceitos sociais prejudiciais que a IA frequentemente aprende”.
Slyman apresentou o algoritmo FairDeDup na semana passada em Seattle na Conferência IEEE/CVF sobre Visão Computacional e Reconhecimento de Padrões.
O FairDeDup funciona ao afinar os conjuntos de dados de legendas de imagens coletadas da web por meio de um processo conhecido como poda. Poda se refere à escolha de um subconjunto dos dados que é representativo de todo o conjunto de dados e, se feito de forma consciente do conteúdo, a poda permite decisões informadas sobre quais partes dos dados permanecem e quais vão.
“FairDeDup remove dados redundantes ao mesmo tempo que incorpora dimensões de diversidade controláveis e definidas pelo homem para mitigar preconceitos”, disse Slyman. “Nossa abordagem permite um treinamento em IA que não é apenas econômico e preciso, mas também mais justo”.
Além da profissão, da raça e do género, outros preconceitos perpetuados durante a formação podem incluir os relacionados com a idade, a geografia e a cultura.
“Ao abordar os preconceitos durante a remoção do conjunto de dados, podemos criar sistemas de IA que são mais justos socialmente”, disse Slyman. “Nosso trabalho não força a IA a seguir nossa própria noção prescrita de justiça, mas cria um caminho para estimular a IA a agir de forma justa quando contextualizada em alguns ambientes e bases de usuários em que é implantada. em vez de a Internet ou outros conjuntos de dados em grande escala decidirem isso.”
Colaboraram com Slyman Stefan Lee, professor assistente da OSU College of Engineering, e Scott Cohen e Kushal Kafle da Adobe.
.