.
Para examinar o estado global da ética da IA, uma equipe de pesquisadores do Brasil realizou uma revisão sistemática e meta-análise das diretrizes globais para o uso da IA. Publicação em 13 de outubro na revista Padrões, os investigadores descobriram que, embora a maioria das directrizes valorizasse a privacidade, a transparência e a responsabilização, muito poucas valorizavam a veracidade, a propriedade intelectual ou os direitos das crianças. Além disso, a maioria das diretrizes descrevia princípios e valores éticos sem propor métodos práticos para implementá-los e sem pressionar por uma regulamentação juridicamente vinculativa.
“Estabelecer diretrizes éticas e estruturas de governança claras para a implantação da IA em todo o mundo é o primeiro passo para promover a confiança, mitigar os seus riscos e garantir que os seus benefícios sejam distribuídos de forma justa”, afirma o cientista social e coautor James William Santos. da Pontifícia Universidade Católica do Rio Grande do Sul.
“Os trabalhos anteriores centraram-se predominantemente em documentos norte-americanos e europeus, o que nos levou a procurar ativamente e incluir perspectivas de regiões como a Ásia, a América Latina, a África e outras”, diz o autor principal Nicholas Kluge Corrêa, da Pontifícia Universidade Católica do Rio Grande. do Sul e a Universidade de Bonn.
Para determinar se existe um consenso global em relação ao desenvolvimento ético e à utilização da IA, e para ajudar a orientar esse consenso, os investigadores realizaram uma revisão sistemática das políticas e directrizes éticas publicadas entre 2014 e 2022. A partir daí, identificaram 200 documentos relacionados com Ética e governança em IA de 37 países e seis continentes e escrita ou traduzida em cinco idiomas diferentes (inglês, português, francês, alemão e espanhol). Estes documentos incluíam recomendações, guias práticos, quadros políticos, marcos jurídicos e códigos de conduta.
Em seguida, a equipa realizou uma meta-análise destes documentos para identificar os princípios éticos mais comuns, examinar a sua distribuição global e avaliar preconceitos em termos do tipo de organizações ou pessoas que produzem estes documentos.
Os pesquisadores descobriram que os princípios mais comuns eram transparência, segurança, justiça, privacidade e responsabilidade, que apareceram em 82,5%, 78%, 75,5%, 68,5% e 67% dos documentos, respectivamente. Os princípios menos comuns foram direitos trabalhistas, veracidade, propriedade intelectual e direitos da criança/adolescente, que apareceram em 19,5%, 8,5%, 7% e 6% dos documentos, e os autores enfatizam que esses princípios merecem maior atenção. Por exemplo, a veracidade – a ideia de que a IA deve fornecer informações verdadeiras – está a tornar-se cada vez mais relevante com o lançamento de tecnologias de IA generativas como o ChatGPT. E uma vez que a IA tem o potencial de deslocar trabalhadores e mudar a forma como trabalhamos, as medidas práticas são evitar o desemprego em massa ou os monopólios.
A maioria (96%) das diretrizes eram “normativas” – descrevendo valores éticos que deveriam ser considerados durante o desenvolvimento e uso da IA – enquanto apenas 2% recomendavam métodos práticos de implementação da ética da IA, e apenas 4,5% propunham formas juridicamente vinculativas de IA. regulamento.
“São principalmente compromissos voluntários que dizem: ‘estes são alguns princípios que consideramos importantes’, mas carecem de implementações práticas e requisitos legais”, diz Santos. “Se você está tentando construir sistemas de IA ou se está usando sistemas de IA em sua empresa, você tem que respeitar coisas como privacidade e direitos do usuário, mas a forma como você faz isso é a área cinzenta que não aparece nestas diretrizes. “
Os investigadores também identificaram vários preconceitos em termos de onde estas orientações foram produzidas e quem as produziu. Os pesquisadores notaram uma disparidade de gênero em termos de autoria. Embora 66% das amostras não tivessem informações de autoria, os autores dos documentos restantes tinham mais frequentemente nomes masculinos (549 = 66% homens, 281 = 34% mulheres).
Geograficamente, a maioria das orientações veio de países da Europa Ocidental (31,5%), América do Norte (34,5%) e Ásia (11,5%), enquanto menos de 4,5% dos documentos tiveram origem na América do Sul, África e Oceânia combinadas. Alguns destes desequilíbrios na distribuição podem dever-se a limitações linguísticas e de acesso público, mas a equipa afirma que estes resultados sugerem que muitas partes do Sul Global estão sub-representadas no discurso global sobre a ética da IA. Em alguns casos, isto inclui países que estão fortemente envolvidos na investigação e desenvolvimento da IA, como a China, cuja produção de investigação relacionada com a IA aumentou mais de 120% entre 2016 e 2019.
“Nossa pesquisa demonstra e reforça nosso apelo para que o Sul Global desperte e um apelo para que o Norte Global esteja pronto para nos ouvir e nos receber”, diz a coautora Camila Galvão, da Pontifícia Universidade Católica do Rio Grande do Sul. “Não devemos esquecer que vivemos num mundo plural, desigual e diverso. Devemos lembrar-nos das vozes que, até agora, não tiveram a oportunidade de reivindicar as suas preferências, explicar os seus contextos e talvez nos dizer algo que possamos ainda não sei.”
Além de incorporar mais vozes, os investigadores dizem que os esforços futuros devem concentrar-se em como implementar na prática os princípios da ética da IA. “O próximo passo é construir uma ponte entre princípios abstratos de ética e o desenvolvimento prático de sistemas e aplicações de IA”, afirma Santos.
.