Lapsos como reconhecimento facial racialmente tendencioso ou algoritmos de aprovação de cartão de crédito aparentemente sexistas deixaram as empresas perguntando como construir IA de forma ética.
Muitas empresas lançaram diretrizes de “IA ética”, como os princípios de IA Responsável da Microsoft , que exigem que os sistemas de IA sejam justos, inclusivos, confiáveis e seguros, transparentes, respeitem a privacidade e a segurança e sejam responsáveis. Estes são louváveis e ajudarão a evitar os danos listados acima. Mas muitas vezes, isso não é suficiente.
Quando o dano é inerente à forma como o algoritmo é usado
O dano pode resultar de como um sistema é usado, não de injustiça, falta de clareza ou outros detalhes de implementação. Considere um Uber autônomo: se eles são capazes de reconhecer pessoas em cadeiras de rodas com menos precisão do que pessoas andando, isso pode ser corrigido usando dados de treinamento que refletem as muitas maneiras pelas quais as pessoas atravessam uma cidade para construir um sistema mais justo.
Mas mesmo com essa desigualdade removida, algumas pessoas podem acreditar que o uso pretendido do algoritmo causará danos: o sistema é projetado para dirigir carros automaticamente, mas irá deslocar motoristas já precários de caronas compartilhadas, que sentirão isso como um dano baseado no uso que nenhum quantidade de correções de implementação técnica pode remediar.
Um artigo acadêmico sombriamente hilário analisou um hipotético sistema de IA projetado para transformar idosos em milkshakes nutritivos. Eles corrigiram a injustiça racial e de gênero na forma como o sistema escolhia quem mulch, forneceram um mecanismo para mulches designados para responsabilizar o sistema por erros no cálculo de seu status e forneceram transparência sobre como o algoritmo de designação de mulching funciona. Este exemplo satírico deixa o problema claro: um sistema pode ser justo, responsável, transparente e ainda assim ser patentemente antiético, por causa de como é usado. Ninguém quer beber sua avó.
Para um exemplo não hipotético que estudei : considere os algoritmos Deepfake, uma tecnologia de IA frequentemente usada para causar danos. Quase todos os deepfakes online são pornografia feita sem o consentimento das vítimas predominantemente femininas que eles retratam. Embora possamos garantir que a rede generativa de adversários usada para criar Deepfakes funcione igualmente bem em diferentes tipos de pele ou gêneros, essas correções de justiça significam pouco quando o dano é inerente à forma como os algoritmos são usados: para criar pornografia não consensual levando à perda de emprego, ansiedade , e doença.
“Building it Better” é visto como bom, mas o uso é minitoramento não
Esses tipos de danos baseados no uso geralmente não são detectados pelas diretrizes de ética da IA, que geralmente se concentram em como os sistemas são construídos, não em como são usados. Isso parece um grande descuido.
Por que o foco em como a IA é implementada, em vez de como ela é usada?
Pode ser por causa de como essas diretrizes são usadas: na minha experiência, os princípios éticos da IA são frequentemente usados para orientar e revisar sistemas à medida que os engenheiros de software os constroem, muito depois da decisão de construir o sistema para um determinado cliente ou uso ter sido tomada por alguém no alto da cadeia de gestão.
Evitar danos baseados no uso às vezes requer a recusa em trabalhar com um determinado cliente ou não construir o sistema completamente. Mas os “proprietários” éticos da IA nas empresas geralmente não têm esse poder, ou mesmo quando têm, sugerir para não construir e não vender um software pode ser socialmente difícil em uma empresa que constrói e vende software.
As diretrizes éticas de IA também podem ser projetadas deliberadamente para desviar a atenção de se as empresas devem construir e vender um sistema, chamando a atenção para a questão mais restrita de como ele é construído. Os pesquisadores analisaram sete conjuntos de princípios éticos de IA publicados por empresas de tecnologia e grupos conectados e descobriram que “as decisões de negócios nunca precisam do mesmo nível de escrutínio que as decisões de design”, sugerindo que os motivos de lucro podem incentivar o escrutínio sobre como construir o sistema em vez de decisões de negócios mais amplas, como se e para quem vender o sistema.
Faz sentido que as diretrizes éticas de IA das empresas se concentrem em como seu software é construído, e não em como ele é usado: focar no último restringiria para quem as empresas podem vender.
Mas mesmo sem fins lucrativos, o movimento do Software Livre garante a “liberdade de executar o programa como desejar, para qualquer finalidade”, mesmo para danos , e as licenças de código aberto não podem restringir a forma como o software é usado. Minha própria pesquisa mostra que os contribuidores de código aberto usam ideias de licenças gratuitas e de código aberto para se isentar de responsabilidade por danos causados pelo software que ajudam a construir: eles apenas fornecem uma ferramenta neutra, a ética depende de seus usuários muitas vezes desconhecidos.
Os engenheiros de softwares precisam de uma opinião sobre o uso downstream
Mas há sinais importantes de resistência a um enquadramento estreito da IA ética que ignora os usos.
Os trabalhadores de tecnologia estão se organizando não apenas para melhorar suas próprias condições de trabalho, mas também exigindo uma opinião sobre como a tecnologia que eles criam é usada. A Tech Workers Coalition , associada ao sindicato, exige que “os trabalhadores tenham uma opinião significativa nas decisões de negócios … Isso significa que os trabalhadores devem ter o direito protegido de … levantar preocupações sobre produtos, iniciativas, recursos ou seu uso pretendido, vista, antiético.”.
Os funcionários do Google protestaram contra o Projeto Maven porque ele deveria ser usado para ajudar o ataque de drones para as forças armadas dos EUA. Eles exigiam que os frutos de seu trabalho não fossem usados para fazer a guerra. Eles não estavam protestando contra um algoritmo tendencioso de direcionamento de ataques de drones.
Eles exigiam que os frutos de seu trabalho não fossem usados para fazer a guerra. Eles não estavam protestando contra um algoritmo tendencioso de direcionamento de ataques de drones.
Da comunidade de código aberto vem o movimento Ethical Source , buscando dar aos desenvolvedores “a liberdade e a agência para garantir que nosso trabalho esteja sendo usado para o bem social e a serviço dos direitos humanos” usando licenças para proibir usos que os colaboradores do projeto consideram antiéticos .
O que os engenheiros de software podem fazer?
À medida que lutamos com a ética à medida que construímos sistemas cada vez mais poderosos, devemos cada vez mais afirmar a agência para evitar danos resultantes de como os usuários podem usar os sistemas que construímos. Mas organizar um sindicato ou questionar décadas de ideologia do software livre é um processo demorado, e a IA é usada para causar danos agora. O que podemos fazer hoje?
A boa notícia é que como um sistema é construído afeta como ele é usado. Os engenheiros de software geralmente têm liberdade para decidir como construir um sistema, e essas decisões de projeto podem ser usadas para tornar o uso prejudicial a jusante menos provável, mesmo se não impossível. Enquanto as armas podem ser jogadas ao redor como frisbees , e você pode até usar um frisbee para matar alguém se você se esforçar o suficiente, os engenheiros tomaram decisões de projeto para tornar as armas mais letais e os frisbees (felizmente) menos letais. As restrições técnicas incorporadas ao software podem detectar e impedir automaticamente certos usos, tornando o uso prejudicial mais difícil e menos frequente, mesmo que um usuário determinado ou qualificado ainda possa contorná-las.
Também podemos votar com os pés: engenheiros de software estão em alta demanda e recebem altos salários. Como muitos já estão fazendo, podemos fazer perguntas sobre como os sistemas que somos solicitados a construir podem ser usados e, se tivermos preocupações que não forem atendidas, podemos encontrar emprego em outro lugar com apenas uma pequena ou nenhuma lacuna no emprego ou na remuneração cortar.








