technology

‘Isso me destruiu completamente’: moderadores quenianos criticam o treinamento de modelos de IA | Inteligência Artificial (IA)

.

As imagens surgem na mente de Mophat Okinyi quando ele está sozinho ou quando está prestes a dormir.

Okinyi, ex-moderador de conteúdo do ChatGPT da Open AI em Nairóbi, Quênia, é uma das quatro pessoas nessa função que entrou com uma petição ao governo queniano pedindo uma investigação sobre o que eles descrevem como condições de exploração para empreiteiros que revisam o conteúdo que alimenta programas de inteligência artificial.

“Isso realmente prejudicou minha saúde mental”, disse Okinyi.

O jovem de 27 anos disse que veria até 700 passagens de texto por dia, muitas retratando violência sexual explícita. Ele lembra que começou a evitar as pessoas depois de ler textos sobre estupradores e se viu projetando narrativas paranóicas nas pessoas ao seu redor. Então, no ano passado, sua esposa disse que ele era um homem mudado e foi embora. Ela estava grávida na época. “Perdi minha família”, disse.

A petição apresentada pelos moderadores refere-se a um contrato entre a OpenAI e a Sama – uma empresa de serviços de anotação de dados com sede na Califórnia que emprega moderadores de conteúdo em todo o mundo. Enquanto trabalhavam para a Sama em 2021 e 2022 em Nairóbi para revisar o conteúdo da OpenAI, alegam os moderadores do conteúdo, eles sofreram trauma psicológico, baixo salário e demissão abrupta.

Os 51 moderadores em Nairobi que trabalham na conta OpenAI de Sama foram encarregados de revisar textos e algumas imagens, muitas retratando cenas gráficas de violência, automutilação, assassinato, estupro, necrofilia, abuso infantil, bestialidade e incesto, dizem os peticionários.

Os moderadores dizem que não foram adequadamente avisados ​​sobre a brutalidade de alguns dos textos e imagens que seriam encarregados de revisar e receberam nenhum apoio psicológico ou apoio psicológico inadequado. Os trabalhadores recebiam entre US$ 1,46 e US$ 3,74 por hora, de acordo com um porta-voz da Sama.

Quando o contrato com a OpenAI foi rescindido oito meses antes, “sentimos que ficamos sem renda, enquanto, por outro lado, lidamos com graves traumas”, disse o peticionário Richard Mathenge, 37. Imediatamente após o término do contrato, o peticionário Alex Kairu, Aos 28 anos, Sama lhe ofereceu uma nova função, rotular imagens de carros, mas sua saúde mental estava se deteriorando. Ele gostaria que alguém tivesse seguido para perguntar: “Com o que você está lidando? O que você está passando?

A OpenAI se recusou a comentar esta história.

CEO da OpenAI, Sam Altman
CEO da OpenAI, Sam Altman. Fotografia: Joel Saget/AFP/Getty Images

Sama disse que os moderadores tinham acesso a terapeutas de saúde mental licenciados 24 horas por dia, sete dias por semana, e recebiam benefícios médicos para reembolsar psiquiatras.

Em relação às alegações de demissão abrupta, o porta-voz da Sama disse que a empresa avisou plenamente aos funcionários que estava se desvinculando do projeto ChatGPT e teve a oportunidade de participar de outro projeto.

“Estamos de acordo com aqueles que pedem empregos justos e justos, uma vez que se alinha com nossa missão – que fornecer um trabalho significativo, digno e digno é a melhor maneira de tirar permanentemente as pessoas da pobreza – e acreditamos que já estaríamos em conformidade com qualquer legislação ou exigências que venham a ser feitas neste espaço”, disse o porta-voz da Sama.

O trabalho humano impulsionando o boom da IA

Desde que o ChatGPT entrou em cena no final do ano passado, o potencial da IA ​​generativa para deixar indústrias inteiras obsoletas tem petrificado profissionais. Esse medo, de cadeias de suprimentos automatizadas e máquinas sencientes, ofuscou as preocupações em outra arena: o trabalho humano impulsionando o boom da IA.

Bots como o ChatGPT são exemplos de grandes modelos de linguagem, um tipo de algoritmo de IA que ensina os computadores a aprender pelo exemplo. Para ensinar Bard, Bing ou ChatGPT a reconhecer prompts que gerariam materiais nocivos, os algoritmos devem ser alimentados com exemplos de discurso de ódio, violência e abuso sexual. O trabalho de alimentar os exemplos de algoritmos é um negócio em crescimento, e a indústria de coleta e rotulagem de dados deve crescer para mais de US$ 14 bilhões até 2030, de acordo com a GlobalData, uma empresa de análise e consultoria de dados.

Grande parte desse trabalho de rotulagem é realizado a milhares de quilômetros do Vale do Silício, no leste da África, Índia, Filipinas e até mesmo refugiados que vivem em Dadaab, no Quênia, e Shatila, no Líbano – campos com um grande grupo de trabalhadores multilíngues dispostos a fazer o trabalho por uma fração do custo, disse Srravya Chandhiramowuli, pesquisadora de anotação de dados da Universidade de Londres.

Nos últimos anos, Nairóbi tornou-se um ponto de acesso global para esse tipo de trabalho. Uma crise econômica em andamento, combinada com a alta taxa de falantes de inglês de Nairobi e a mistura de trabalhadores internacionais de toda a África, tornam-na um centro para trabalhadores baratos, multilíngues e educados.

As condições econômicas permitiram que Sama recrutasse quenianos jovens e educados, desesperados por trabalho, disse Mathenge. “Este foi o nosso primeiro trabalho ideal”, disse ele.

Durante o treinamento de uma semana para ingressar no projeto, o ambiente foi amigável e o conteúdo mediano, disseram os peticionários. “Não suspeitávamos de nada”, disse Mathenge. Mas conforme o projeto avançava, as passagens de texto ficavam mais longas e o conteúdo mais perturbador, ele alegou.

A tarefa de rotulagem de dados é, na melhor das hipóteses, monótona e, na pior, traumatizante, disseram os peticionários. Enquanto moderava o ChatGPT, Okinyi leu passagens detalhando pais estuprando seus filhos e crianças fazendo sexo com animais. Em trechos de amostra lidos pelo Guardian, o texto que parecia ter sido retirado de fóruns de bate-papo inclui descrições de tentativas de suicídio, fantasias de tiroteios em massa e calúnias raciais.

A equipe de Mathenge terminava seus dias em uma ligação em grupo, trocando histórias dos horrores que haviam lido, disse ele. “Alguém diria que seu conteúdo era mais severo ou grotesco do que o meu e, pelo menos, posso ter isso como meu remédio”, disse ele. Ele se lembra de trabalhar em uma área isolada do escritório devido à natureza do trabalho: “Ninguém podia ver no que estávamos trabalhando”, ele pensou.

Antes de moderar o conteúdo do ChatGPT da OpenAI, Kairu adorava ser DJ. Seja em igrejas ou festas, interagir com diferentes grupos de pessoas era sua parte favorita do trabalho. Mas desde que revisou o conteúdo dos cantos mais sombrios da internet por mais de seis meses, ele se tornou introvertido. Seu relacionamento físico com a esposa foi prejudicado e ele voltou a morar com os pais. “Isso me destruiu completamente”, disse ele.

Vários dos peticionários disseram ter recebido pouco apoio psicológico da Sama, uma alegação que a empresa contesta. “Tentei entrar em contato com [wellness] departamento para dar indicações do que exatamente estava acontecendo com a equipe, mas eles foram muito evasivos”, disse Mathenge. Okinyi disse que os conselheiros oferecidos não entendiam o preço único da moderação de conteúdo, então as sessões “nunca eram produtivas”.

As empresas têm uma responsabilidade significativa

De acordo com seu site, “a Sama está conduzindo uma cadeia de suprimentos de IA ética que melhora significativamente os resultados de emprego e renda”. Seus clientes incluem Google, Microsoft e Ebay, entre outros nomes conhecidos, e em 2021 foi um dos nomes da Forbes “AI 50 Empresas para Acompanhar”.

A empresa tem trabalhadores em vários lugares do leste da África, incluindo mais de 3.500 quenianos. A Sama já foi a maior provedora de moderadores de conteúdo da Meta na África, até anunciar em janeiro que iria “descontinuar” seu trabalho com a gigante. A notícia seguiu-se a vários processos movidos contra ambas as empresas por suposta violação de sindicatos, demissões ilegais e múltiplas violações da constituição queniana.

A Sama cancelou seu contrato com a OpenAI em março de 2022, oito meses antes, “para focar em nossa competência principal de soluções de anotação de dados de visão computacional”, disse o porta-voz da Sama. O anúncio coincidiu com uma investigação da Time, detalhando como quase 200 jovens africanos no datacenter de Sama em Nairóbi foram confrontados com vídeos de assassinatos, estupros, suicídios e abuso sexual infantil como parte de seu trabalho, ganhando apenas US$ 1,50 por hora ao fazê-lo.

Mas agora, os ex-moderadores do ChatGPT estão pedindo uma nova legislação para regular como o “trabalho de tecnologia prejudicial e perigoso” é terceirizado no Quênia e para que as leis existentes “incluam a exposição a conteúdo nocivo como um risco ocupacional”, de acordo com a petição. Eles também querem investigar como o ministério do trabalho falhou em proteger os jovens quenianos de empresas terceirizadas.

O Ministério do Trabalho do Quênia se recusou a comentar a petição.

Mas empresas como a OpenAI também têm uma responsabilidade significativa, disse Cori Crider, diretora da Foxglove, uma ONG legal sem fins lucrativos que está apoiando o caso. “Os moderadores de conteúdo trabalham para empresas de tecnologia como OpenAI e Facebook em tudo, menos no nome”, disse Crider em um comunicado. “A terceirização desses trabalhadores é uma tática das empresas de tecnologia para se distanciar das péssimas condições de trabalho que os moderadores de conteúdo suportam.”

Crider disse que ela não esperava que o governo queniano respondesse à petição tão cedo. Ela quer ver uma investigação sobre o pagamento, apoio à saúde mental e condições de trabalho de todos os escritórios de moderação de conteúdo e rotulagem de dados no Quênia, além de maiores proteções para o que ela considera uma “força de trabalho essencial”.

Além da petição, vislumbres de regulamentação potencial estão crescendo. Em maio, foi formado o primeiro sindicato de moderadores de conteúdo na África, quando 150 moderadores de conteúdo de mídia social do TikTok, YouTube, Facebook e ChatGPT se reuniram em Nairóbi. E embora os trabalhadores terceirizados não sejam funcionários legais de seus clientes, em uma decisão histórica no mês passado, o juiz do tribunal trabalhista Byram Ongaya decidiu que a Meta é o “verdadeiro empregador” de seus moderadores no Quênia.

Ainda não está claro para quem a OpenAI atualmente terceiriza seu trabalho de moderação de conteúdo.

Para seguir em frente, ajuda Okinyi a pensar nos usuários do ChatGPT que ele protegeu. “Eu me considero um soldado e soldados levam balas pelo bem do povo”, diz ele. Apesar do potencial de ferimentos de bala permanecerem para sempre, ele se considera um herói.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo